Un espace vectoriel réel (abrégé EV) est un ensemble V V V dont les éléments sont appelés "vecteurs", muni de deux opérations, l'addition "+" et la multiplication par des scalaires ( ∈ R ) (\in\R) ( ∈ R ) , tel que les propriétés suivantes soient satisfaites :
U + V = V + U ∀ u , v ∈ V U+V=V+U\quad\forall u,v\in V U + V = V + U ∀ u , v ∈ V
U + ( V + W ) = ( U + V ) + W ∀ u , v , w ∈ V U+(V+W)=(U+V)+W\quad\forall u,v,w\in V U + ( V + W ) = ( U + V ) + W ∀ u , v , w ∈ V
Il existe un vecteur nul noté "0 0 0 " (ou parfois "0 V 0_V 0 V "), tel que v + 0 = 0 + v = v ∀ v ∈ V v+0=0+v=v\quad\forall v\in V v + 0 = 0 + v = v ∀ v ∈ V
∀ v ∈ V \forall v\in V ∀ v ∈ V , il existe un opposé dans V V V , noté "− v -v − v ", tel que v + ( − v ) = ( − v ) + v = 0 v+(-v)=(-v)+v=0 v + ( − v ) = ( − v ) + v = 0
λ ( u + v ) = λ u + λ v ∀ λ ∈ R , ∀ u , v ∈ V \lambda (u+v)=\lambda u+\lambda v\quad\forall\lambda\in\R,\forall u,v\in V λ ( u + v ) = λ u + λ v ∀ λ ∈ R , ∀ u , v ∈ V
( λ + μ ) v = λ v + μ v ∀ λ , μ ∈ R , ∀ v ∈ V (\lambda+\mu)v=\lambda v+\mu v\quad\forall\lambda,\mu\in\R,\forall v\in V ( λ + μ ) v = λ v + μ v ∀ λ , μ ∈ R , ∀ v ∈ V
λ ( μ v ) = μ ( λ v ) = ( μ λ ) v ∀ λ , μ ∈ R , ∀ v ∈ V \lambda(\mu v)=\mu(\lambda v)=(\mu\lambda)v\quad\forall\lambda,\mu\in\R,\forall v\in V λ ( μ v ) = μ ( λ v ) = ( μ λ ) v ∀ λ , μ ∈ R , ∀ v ∈ V
1 v = v ∀ v ∈ V 1v=v\quad\forall v\in V 1 v = v ∀ v ∈ V
V = R n , v : vecteur de R n { + : addition vectorielle multiplication par λ ∈ R \begin{aligned}V=\R^n,&\qquad v:\text{vecteur de }\R^n\\&\begin{cases}&+:\text{addition vectorielle}\\&\text{multiplication par }\lambda\in\R\end{cases}\end{aligned} V = R n , v : vecteur de R n { + : addition vectorielle multiplication par λ ∈ R
V = { fonctions f : [ a ; b ] → R } V=\{\text{fonctions }f:[a;b]\rightarrow\R\} V = { fonctions f : [ a ; b ] → R }
(Spécifier un $f\in V$, c'est définir $f(t)\quad\forall t\in[a;b]$ !)
- **Le "+" :** si $f,g\in V,f+g\in V$ est défini par $(f\textcolor{blue}{+}g)(t)\coloneqq f(t)\textcolor{red}{+}g(t),\forall t\in[a;b] $
> **Remarque :**
>
> $\textcolor{blue}{+}\text{ dans V}\\\textcolor{red}{+}\text{dans }\R$
- **La multiplication par un scalaire :** si $\lambda\in\R,f\in V,\lambda f\in V$ est défini par $(\lambda f)(t)\coloneqq\lambda f(t)$
Vérifions que $V$, muni de ces deux opérations, est un EV :
$$
\left.\begin{aligned}
&\bullet f+g=g+f\\
&\bullet f+(g+h)=(f+g)+h\\
&\bullet \lambda (f+g)=\lambda f+\lambda g\\
&\bullet (\lambda +\mu) f=\lambda f+\mu f \\
&\bullet \lambda (\mu f)=(\lambda\mu)f=\mu(\lambda f)\\
&\bullet 1f=f\\
\end{aligned}\right\}\text{OK}
$$
Vecteur nul : c'est la fonction 0 V : [ a ; b ] → R t ↦ 0 V ( t ) ≔ 0 \begin{aligned}\textcolor{blue}{0_V}:[a;b]&\rightarrow\R\\t&\mapsto0_V(t)\coloneqq\textcolor{red}{0}\end{aligned} 0 V : [ a ; b ] t → R ↦ 0 V ( t ) : = 0
Remarque :
0 V \textcolor{blue}{0_V} 0 V est le "zéro" dans V V V .
0 \textcolor{red}{0} 0 est le "zéro" dans R \R R .
Opposé : si f ∈ V , − f ∈ V f\in V,-f\in V f ∈ V , − f ∈ V est donnée par ( − f ) ( t ) = − f ( t ) (-f)(t)=-f(t) ( − f ) ( t ) = − f ( t )
V = { matrices 2 × 2 a ˋ coefficients r e ˊ els } = { ( a b c d ) ∣ a , b , c , d ∈ R } V=\{\text{matrices }2\times2\text{ à coefficients réels}\}=\begin{Bmatrix} \left. \begin{pmatrix} a&b\\ c&d \end{pmatrix}\right\vert a,b,c,d\in\R \end{Bmatrix} V = { matrices 2 × 2 a ˋ coefficients r e ˊ els } = { ( a c b d ) ∣ ∣ ∣ ∣ ∣ a , b , c , d ∈ R }
Le "+" : ( a b c d ) + ( e f g h ) ≔ ( a + e b + f c + g d + h ) \begin{pmatrix}a&b\\c&d\end{pmatrix}+\begin{pmatrix}e&f\\g&h\end{pmatrix}\coloneqq\begin{pmatrix}a+e&b+f\\c+g&d+h\end{pmatrix} ( a c b d ) + ( e g f h ) : = ( a + e c + g b + f d + h )
La multiplication : λ ( a b c d ) ≔ ( λ a λ b λ c λ d ) \lambda\begin{pmatrix}a&b\\c&d\end{pmatrix}\coloneqq\begin{pmatrix}\lambda a&\lambda b\\\lambda c&\lambda d\end{pmatrix} λ ( a c b d ) : = ( λ a λ c λ b λ d )
Exercice : vérifier que V V V est un EV.
V = { suite de r e ˊ els x = ( x n ) n ⩾ 1 , x n ∈ R , ∀ n ⩾ 1 } V=\{\text{suite de réels }\bm{x}=(x_n)_{n\geqslant1},x_n\in\R,\forall n\geqslant1\} V = { suite de r e ˊ els x = ( x n ) n ⩾ 1 , x n ∈ R , ∀ n ⩾ 1 }
Le "+" : Si x = ( x 1 , x 2 , x 3 , … ) y = ( y 1 , y 2 , y 3 , … ) x + y ≔ ( x 1 + y 1 , x 2 + y 2 , x 3 + y 3 , … ) \begin{aligned}\bm{x}&=(x_1,x_2,x_3,\ldots)\\\bm{y}&=(y_1,y_2,y_3,\ldots)\\\bm{x}+\bm{y}&\coloneqq(x_1\textcolor{red}{+}y_1,x_2\textcolor{red}{+}y_2,x_3\textcolor{red}{+}y_3,\ldots)\end{aligned} x y x + y = ( x 1 , x 2 , x 3 , … ) = ( y 1 , y 2 , y 3 , … ) : = ( x 1 + y 1 , x 2 + y 2 , x 3 + y 3 , … )
Remarque : + \textcolor{red}{+} + est le "plus" dans R \R R .
La multiplication : Si λ ∈ R , λ x ≔ ( λ x 1 , λ x 2 , λ x 3 , … ) \lambda\in\R,\\\lambda\bm{x}\coloneqq(\lambda x_1,\lambda x_2,\lambda x_3,\ldots) λ ∈ R , λ x : = ( λ x 1 , λ x 2 , λ x 3 , … )
Exercice : vérifier que V V V est un EV.
Intéressant : on peut importer toutes les notions vues jusqu'à présent pour R n \R^n R n dans le cadre général d'un EV abstrait. Par exemple :
V = { fonctions f : [ 0 ; 1 ] → R } V=\{\text{fonctions }f:[0;1]\rightarrow\R\} V = { fonctions f : [ 0 ; 1 ] → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ t ∀ t ∈ [ 0 ; 1 ] f(t)\coloneqq t\quad\forall t \in[0;1] f ( t ) : = t ∀ t ∈ [ 0 ; 1 ]
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ t 2 ∀ t ∈ [ 0 ; 1 ] g(t)\coloneqq t^2\quad\forall t \in[0;1] g ( t ) : = t 2 ∀ t ∈ [ 0 ; 1 ]
Question : { f ; g } \{f;g\} { f ; g } est-elle une famille libre ou liée ?
On étudie l'équation
α 1 f + α 2 g = 0 V , α 1 , α 2 ∈ R \alpha_1f+\alpha_2g=0_V,\quad\alpha_1,\alpha_2\in\R α 1 f + α 2 g = 0 V , α 1 , α 2 ∈ R
qui signifie :
∀ t ∈ [ 0 ; 1 ] , α 1 f ( t ) + α 2 f ( t ) = 0 V ( t ) ⏟ = 0 ∀ t ∈ [ 0 ; 1 ] , α 1 t + α 2 t 2 ⏟ p ( t ) , polyn o ˆ me de degr e ˊ 2 = 0 \begin{array}{lcr} \forall t\in[0;1],\quad&\underbrace{\alpha_1f(t)+\alpha_2f(t)=0_V(t)}&=0\\ \forall t\in[0;1],\quad&\underbrace{\alpha_1t+\alpha_2t^2}_{p(t), \text{ polynôme de degré }2}&=0 \end{array} ∀ t ∈ [ 0 ; 1 ] , ∀ t ∈ [ 0 ; 1 ] , α 1 f ( t ) + α 2 f ( t ) = 0 V ( t ) p ( t ) , polyn o ˆ me de degr e ˊ 2 α 1 t + α 2 t 2 = 0 = 0
Rappel : si un polynôme p ( t ) = α 0 + α 1 t + α 2 t 2 + … + α n t n p(t)=\alpha_0+\alpha_1t+\alpha_2t^2+\ldots+\alpha_nt^n p ( t ) = α 0 + α 1 t + α 2 t 2 + … + α n t n s'annule partout ( p ( t ) = 0 ∀ t dans un intervalle ) (p(t)=0\quad\forall t\text{ dans un intervalle}) ( p ( t ) = 0 ∀ t dans un intervalle ) , alors tous ses coefficients sont nuls : α 0 = α 1 = … = a n = 0 \alpha_0=\alpha_1=\ldots=a_n=0 α 0 = α 1 = … = a n = 0 .
⟶ α 1 = 0 \longrightarrow\alpha_1=0 ⟶ α 1 = 0 et α 2 = 0 \alpha_2=0 α 2 = 0 .
⟶ { f ; g } \longrightarrow\{f;g\} ⟶ { f ; g } est libre.
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R } Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ 7 ∀ t ∈ R f(t)\coloneqq 7 \forall t \in\R f ( t ) : = 7 ∀ t ∈ R Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ cos ( 2 t ) ∀ t ∈ R g(t)\coloneqq \cos(2t) \forall t \in\R g ( t ) : = cos ( 2 t ) ∀ t ∈ R Soit h ∈ V h\in V h ∈ V , défini par h ( t ) ≔ cos 2 ( t ) ∀ t ∈ R h(t)\coloneqq \cos^2(t) \forall t \in\R h ( t ) : = cos 2 ( t ) ∀ t ∈ R Question : { f ; g ; h } \{f;g;h\} { f ; g ; h } est-elle libre ou liée ? On étudie l'équation α 1 f + α 2 g + α 3 h = 0 \alpha_1f+\alpha_2g+\alpha_3h=0 α 1 f + α 2 g + α 3 h = 0 Remarquons que cos 2 ( t ) = 1 + cos ( 2 t ) 2 = 1 14 7 + 1 2 cos ( 2 t ) ∀ t ∈ R \begin{aligned} \cos^2(t)&=\frac{1+\cos(2t)}{2}\\ &=\frac{1}{14}7+\frac{1}{2}\cos(2t)\quad\forall t\in\R \end{aligned} cos 2 ( t ) = 2 1 + cos ( 2 t ) = 1 4 1 7 + 2 1 cos ( 2 t ) ∀ t ∈ R Donc h = 1 14 f + 1 2 g ⟺ { f ; g ; h } h=\frac{1}{14}f+\frac{1}{2}g\iff\{f;g;h\} h = 1 4 1 f + 2 1 g ⟺ { f ; g ; h } est liée.
Soit V V V un EV. Un sous-ensemble W ⊂ V W\sub V W ⊂ V est un sous-espace vectoriel de V V V , dit "SEV" si :
W W W contient le 0 V 0_V 0 V
w 1 , w 2 ∈ W w_1,w_2\in W w 1 , w 2 ∈ W , alors w 1 + w 2 ∈ W w_1+w_2\in W w 1 + w 2 ∈ W
w 1 ∈ W , λ ∈ R w_1\in W,\lambda\in\R w 1 ∈ W , λ ∈ R , alors λ w ∈ W \lambda w\in W λ w ∈ W
Note : en faisant des combinaisons linéaires dans W W W , on reste dans W W W .
V = R 2 , W = { V=\R^2,\quad W=\{ V = R 2 , W = { vecteurs de R 2 \R^2 R 2 dont l'extrémité est dans le carré de côté 2 2 2 centré à l'origine } \} }
W W W n'est pas un SEV, car on peut "sortir" de W W W en faisant des combinaisons linéaires de vecteurs de w ⃗ 1 , w ⃗ 2 ∈ W \vec{w}_1,\vec{w}_2\in W w 1 , w 2 ∈ W .
V = R 2 , W = { V=\R^2,\quad W=\{ V = R 2 , W = { une droite dirigée par un v ⃗ \vec{v} v passant par l'origine} \} }
W W W est un SEV de V V V .
V = R 3 , W = { V=\R^3,\quad W=\{ V = R 3 , W = { un plan contenant l'origine } \} } .
W W W est un SEV de V V V .
V = { fonctions f : [ a ; b ] → R } V=\{\text{fonctions }f:[a;b]\rightarrow\R\} V = { fonctions f : [ a ; b ] → R } .
W ≔ { f : [ a ; b ] → R telles que f ( a ) = f ( b ) } W\coloneqq\{f:[a;b]\rightarrow\R\text{ telles que }f(a)=f(b)\} W : = { f : [ a ; b ] → R telles que f ( a ) = f ( b ) } .
W W W est un SEV de V V V car :
la fonction " 0 V " ∈ W "0_V"\in W " 0 V " ∈ W , puisque 0 V ( a ) = 0 V ( b ) = 0 0_V(a)=0_V(b)=0 0 V ( a ) = 0 V ( b ) = 0
si f , g ∈ W f,g\in W f , g ∈ W , alors f + g ∈ W f+g\in W f + g ∈ W car
( f + g ) ( a ) = f ( a ) + g ( a ) ↓ f ∈ W ↓ g ∈ W = f ( b ) + g ( b ) = ( f + g ) ( b ) \begin{aligned}(f+g)(a)&=&f(a)+&g(a)\\ &&\downarrow_{f\in W} &\downarrow_{g\in W}\\ &=&f(b)+&g(b)=(f+g)(b) \end{aligned} ( f + g ) ( a ) = = f ( a ) + ↓ f ∈ W f ( b ) + g ( a ) ↓ g ∈ W g ( b ) = ( f + g ) ( b )
si f ∈ W , λ ∈ R f\in W,\lambda \in \R f ∈ W , λ ∈ R , alors λ f ∈ W \lambda f\in W λ f ∈ W car
( λ f ) ( a ) = λ ⋅ f ( a ) = λ ⋅ f ( b ) = ( λ f ) ( b ) ↑ f ∈ W \begin{aligned}(\lambda f)(a)=\lambda\cdot f(a)&=\lambda\cdot f(b)=(\lambda f)(b)\\ &\uparrow_{f\in W} \end{aligned} ( λ f ) ( a ) = λ ⋅ f ( a ) = λ ⋅ f ( b ) = ( λ f ) ( b ) ↑ f ∈ W
Un moyen standard de construire des SEV est de former des combinaisons linéaires d'une famille de vecteurs choisis de V V V .
Soit V V V un EV, v 1 , v 2 , … , v p ∈ V v_1,v_2,\ldots,v_p\in V v 1 , v 2 , … , v p ∈ V on note
Vect { v 1 , v 2 , … , v p } \text{Vect}\{v_1,v_2,\ldots,v_p\} Vect { v 1 , v 2 , … , v p }
le sous-ensemble de V V V contenant toutes les combinaisons linéaires possibles des v 1 , v 2 , … , v p v_1,v_2,\ldots,v_p v 1 , v 2 , … , v p .
W ≔ Vect { v 1 , v 2 , … , v p } ⊂ V W\coloneqq\text{Vect}\{v_1,v_2,\ldots,v_p\}\sub V W : = Vect { v 1 , v 2 , … , v p } ⊂ V est un SEV de V V V , appelé le sous-espace engendré par v 1 , v 2 , … , v p v_1,v_2,\ldots,v_p v 1 , v 2 , … , v p .
W ≔ Vect { v 1 , v 2 , … , v p } W\coloneqq\text{Vect}\{v_1,v_2,\ldots,v_p\} W : = Vect { v 1 , v 2 , … , v p } est bien un SEV de V V V , puisque :
0 V ∈ W 0_V\in W 0 V ∈ W , car 0 v 1 + 0 v 2 + … + 0 v p = 0 V \textcolor{red}{0}v_1+\textcolor{red}{0}v_2+\ldots+\textcolor{red}{0}v_p=0_V 0 v 1 + 0 v 2 + … + 0 v p = 0 V
Note : 0 ∈ R \textcolor{red}{0}\in\R 0 ∈ R !
Soient w 1 , w 2 ∈ W : ∃ α 1 , α 2 , … , α p tel que w 1 = α 1 v 1 + α 2 v 2 + … + α p v p ∃ β 1 , β 2 , … , β p tel que w 2 = β 1 v 1 + β 2 v 2 + … + β p v p \begin{aligned}w_1,w_2\in W:\quad&\exist\alpha_1,\alpha_2,\ldots,\alpha_p&\text{ tel que } w_1&=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p\\&\exist\beta_1,\beta_2,\ldots,\beta_p&\text{ tel que } w_2&=\beta_1v_1+\beta_2v_2+\ldots+\beta_pv_p\end{aligned} w 1 , w 2 ∈ W : ∃ α 1 , α 2 , … , α p ∃ β 1 , β 2 , … , β p tel que w 1 tel que w 2 = α 1 v 1 + α 2 v 2 + … + α p v p = β 1 v 1 + β 2 v 2 + … + β p v p
Donc :
w 1 + w 2 = ( α 1 + β 1 ) ⏞ ∈ R v 1 + ( α 2 + β 2 ) ⏞ ∈ R v 2 + ( α p + β p ) ⏞ ∈ R v p ∈ W w_1+w_2=\overbrace{(\alpha_1+\beta_1)}^{\in\R}v_1+\overbrace{(\alpha_2+\beta_2)}^{\in\R}v_2+\overbrace{(\alpha_p+\beta_p)}^{\in\R}v_p\in W w 1 + w 2 = ( α 1 + β 1 ) ∈ R v 1 + ( α 2 + β 2 ) ∈ R v 2 + ( α p + β p ) ∈ R v p ∈ W
Soient w ∈ W , λ ∈ R w\in W,\lambda\in\R w ∈ W , λ ∈ R . Alors λ w ∈ W \lambda w\in W λ w ∈ W puisque
w = α 1 v 1 , α 2 v 2 , … , α p v p → λ w = ( λ α 1 ) ⏟ ∈ R v 1 + ( λ α 2 ) ⏟ ∈ R v 2 + … + ( λ α p ) ⏟ ∈ R v p ∈ W □ \begin{array}{llr} &w=\alpha_1v_1,\alpha_2v_2,\ldots,\alpha_pv_p\\ &\rightarrow \lambda w=\underbrace{(\lambda\alpha_1)}_{\in\R}v_1+\underbrace{(\lambda\alpha_2)}_{\in\R}v_2+\ldots+\underbrace{(\lambda\alpha_p)}_{\in\R}v_p\in W\\ & &\square \end{array} w = α 1 v 1 , α 2 v 2 , … , α p v p → λ w = ∈ R ( λ α 1 ) v 1 + ∈ R ( λ α 2 ) v 2 + … + ∈ R ( λ α p ) v p ∈ W □
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ t ∀ t ∈ R f(t)\coloneqq t\quad\forall t \in\R f ( t ) : = t ∀ t ∈ R
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ t 2 ∀ t ∈ R g(t)\coloneqq t^2\quad\forall t \in\R g ( t ) : = t 2 ∀ t ∈ R
Soit W ≔ Vect { f ; g } ⊂ V W\coloneqq\text{Vect}\{f;g\}\sub V W : = Vect { f ; g } ⊂ V
W W W est l'ensemble des polynômes de degré au plus 2 2 2 qui prennent la valeur 0 0 0 en t = 0 t=0 t = 0 .
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ sin ( t ) ∀ t ∈ R f(t)\coloneqq \sin(t) \forall t \in\R f ( t ) : = sin ( t ) ∀ t ∈ R
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ cos ( 2 t ) ∀ t ∈ R g(t)\coloneqq \cos(2t) \forall t \in\R g ( t ) : = cos ( 2 t ) ∀ t ∈ R
Remarque : { f ; g } \{f;g\} { f ; g } est libre.
Soit W ≔ Vect { f ; g } W\coloneqq\text{Vect}\{f;g\} W : = Vect { f ; g }
P ≔ { polyn o ˆ mes t ↦ p ( t ) a ˋ coefficients r e ˊ els } \mathbb{P}\coloneqq\{\text{polynômes }t\mapsto p(t)\text{ à coefficients réels}\} P : = { polyn o ˆ mes t ↦ p ( t ) a ˋ coefficients r e ˊ els }
Par exemple, p ( t ) = 1 + t + 2 t 2 ∈ P p(t)=1+t+2t^2\in\mathbb{P} p ( t ) = 1 + t + 2 t 2 ∈ P
Montrer que P \mathbb{P} P , muni d'un "+ + + " et d'une multiplication par des scalaires, est un EV.
Si p 1 ( t ) ≔ 1 + 2 t 3 , p 2 ( t ) = 2 + t − 3 t 2 , p 3 ( t ) = − t + 2 t 2 − t 3 p_1(t)\coloneqq1+2t^3,p_2(t)=2+t-3t^2,p_3(t)=-t+2t^2-t^3 p 1 ( t ) : = 1 + 2 t 3 , p 2 ( t ) = 2 + t − 3 t 2 , p 3 ( t ) = − t + 2 t 2 − t 3 , est-ce que la famille { p 1 , p 2 , p 3 } \{p_1,p_2,p_3\} { p 1 , p 2 , p 3 } est libre ou liée ?
P n ≔ { polyn o ˆ mes p ∈ P de degr e ˊ au plus ‾ n } \mathbb{P}_n\coloneqq\{\text{polynômes }p\in\mathbb{P}\text{ de degré }\color{red}\underline{\color{black}\text{au plus}}\color{black}\,n\} P n : = { polyn o ˆ mes p ∈ P de degr e ˊ au plus n }
P n \mathbb{P}_n P n est un SEV de P \mathbb{P} P .
Soient V , V ′ V,V' V , V ′ deux espaces vectoriels. On considère une application de V V V dans V ′ V' V ′ , T : V → V ′ T:V\rightarrow V' T : V → V ′ , c'est-à-dire une règle qui associe à chaque v ∈ V v\in V v ∈ V un (et un seul) v ′ ∈ V ′ v'\in V' v ′ ∈ V ′ , noté v ′ : T ( v ) v':T(v) v ′ : T ( v ) .
Ensemble image de T T T :
Im ( T ) ≔ { v ′ ∈ V ′ ∣ ∃ (au moins) un v ∈ V tel que T ( v ) = v ′ } ⊂ V ′ \text{Im}(T)\coloneqq\{v'\in V'\vert\exist\text{ (au moins) un } v\in V\text{ tel que }T(v)=v'\}\sub V' Im ( T ) : = { v ′ ∈ V ′ ∣ ∃ (au moins) un v ∈ V tel que T ( v ) = v ′ } ⊂ V ′
T T T est injective si v 1 ≠ v 2 v_1\ne v_2 v 1 = v 2 et $ v_1,v_2\in V$ implique T ( v 1 ) ≠ T ( v 2 ) T(v_1)\ne T(v_2) T ( v 1 ) = T ( v 2 ) . De façon équivalente, T T T est injective si T ( v 1 ) = T ( v 2 ) ⟹ v 1 = v 2 T(v_1)=T(v_2)\implies v_1=v_2 T ( v 1 ) = T ( v 2 ) ⟹ v 1 = v 2 .
T T T est surjective si Im(T) = V ′ \text{Im(T)}=V' Im(T) = V ′ .
V = vecteurs de R n V=\text{vecteurs de }\R^n V = vecteurs de R n , avec le "+ + + ",
V ′ = R V'=\R V ′ = R
T : V → V ′ T:V\rightarrow V' T : V → V ′
v ′ = ( v 1 ⋮ v n ) ↦ t ( v ⃗ ) = v 1 v'=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}\mapsto t(\vec{v})=v_1 v ′ = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ ↦ t ( v ) = v 1
Im ( T ) = V ′ = R \text{Im}(T)=V'=\R Im ( T ) = V ′ = R , donc T T T est surjective.
T T T n'est pas injective, car si v ⃗ , w ⃗ \vec{v},\vec{w} v , w sont des vecteurs différents de R n \R^n R n , avec v 1 = w 1 v_1=w_1 v 1 = w 1 . Alors T ( v ⃗ ) = T ( w ⃗ ) T(\vec{v})=T(\vec{w}) T ( v ) = T ( w ) , mais v ⃗ ≠ w ⃗ \vec{v}\ne\vec{w} v = w .
V = R n T : V → V ′ V ′ = R m v ⃗ ↦ T ( v ⃗ ) ≔ A v ⃗ , \begin{array}{lll} V=\R^n &T:&V\rightarrow V'\\ V'=\R^m&&\vec{v}\mapsto T(\vec{v})\coloneqq A\vec{v},\end{array} V = R n V ′ = R m T : V → V ′ v ↦ T ( v ) : = A v ,
où A A A est une matrice m × n m\times n m × n fixée.
Une application T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire si
∀ v , w ∈ V , T ( v + w ) = T ( v ) + T ( w ) \forall v,w\in V,\quad T(v+w)=T(v)+T(w) ∀ v , w ∈ V , T ( v + w ) = T ( v ) + T ( w )
∀ v ∈ V , ∀ λ ∈ R , T ( λ v ) = λ T ( v ) \forall v\in V,\forall\lambda\in\R,\quad T(\lambda v)=\lambda T(v) ∀ v ∈ V , ∀ λ ∈ R , T ( λ v ) = λ T ( v )
De manière équivalente, T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire si
T ( λ 1 v 1 + λ 2 v 2 + … + λ k v k ) = λ 1 T ( v 1 ) + λ 2 T ( v 2 ) + … + λ k T ( v k ) ( ∀ λ 1 v 1 , λ 2 v 2 , … , λ k v k ∈ R , ∀ v 1 , v 2 , … , v k ∈ V ) \begin{aligned} &\boxed{T(\lambda_1v_1+\lambda_2v_2+\ldots+\lambda_kv_k)=\lambda_1T(v_1)+\lambda_2T(v_2)+\ldots+\lambda_kT(v_k)}\\ &(\forall\lambda_1v_1,\lambda_2v_2,\ldots,\lambda_kv_k\in\R,\forall v_1,v_2,\ldots,v_k\in V) \end{aligned} T ( λ 1 v 1 + λ 2 v 2 + … + λ k v k ) = λ 1 T ( v 1 ) + λ 2 T ( v 2 ) + … + λ k T ( v k ) ( ∀ λ 1 v 1 , λ 2 v 2 , … , λ k v k ∈ R , ∀ v 1 , v 2 , … , v k ∈ V )
T : R → R x ↦ T ( x ) ≔ x 2 n’est pas lin e ˊ aire. \begin{aligned}T:\R&\rightarrow\R\\x&\mapsto T(x)\coloneqq x^2\text{ n'est pas linéaire.}\end{aligned} T : R x → R ↦ T ( x ) : = x 2 n’est pas lin e ˊ aire.
Par exemple, T ( 1 ) = 1 T ( 2 ) = 4 T ( 1 + 2 ) = T ( 3 ) = 9 \begin{aligned}&T(1)=1\\&T(2)=4\\&T(1+2)=T(3)=9\end{aligned} T ( 1 ) = 1 T ( 2 ) = 4 T ( 1 + 2 ) = T ( 3 ) = 9 ,
donc T ( 1 + 2 ) ≠ T ( 1 ) + T ( 2 ) T(1+2)\ne T(1)+T(2) T ( 1 + 2 ) = T ( 1 ) + T ( 2 ) .
Le même qu'avant :
T : R n → R v ⃗ = ( v 1 ⋮ v n ) ↦ T ( v ⃗ ) = v 1 \begin{aligned}T:\R^n&\rightarrow\R\\&\vec{v}=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}&\mapsto T(\vec{v})=v_1\end{aligned} T : R n → R v = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ ↦ T ( v ) = v 1 ,
est linéaire car :
∙ ∀ v ⃗ = ( v 1 ⋮ v n ) , w ⃗ = ( w 1 ⋮ w n ) T ( v ⃗ + w ⃗ ) = T ( ( v 1 + w 1 ⋮ v n + w n ) ) = v 1 + w 1 = T ( v ⃗ ) + T ( w ⃗ ) ∙ ∀ λ ∈ R , T ( λ v ⃗ ) = T ( ( λ v 1 ⋮ λ v n ) ) = λ v 1 = λ T ( v ⃗ ) \begin{array}{ll} &\begin{array}{lll} \bullet&\forall\vec{v}=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}, \vec{w}=\begin{pmatrix}w_1\\\vdots\\w_n\end{pmatrix}\\ &\begin{aligned} T(\vec{v}+\vec{w})&=T\left(\begin{pmatrix}v_1+w_1\\\vdots\\v_n+w_n\end{pmatrix}\right)\\ &=v_1+w_1\\ &=T(\vec{v})+T(\vec{w}) \end{aligned} \end{array} &\text{}\\ &\begin{array}{ll}\bullet\quad\forall\lambda\in\R,\quad T(\lambda\vec{v})&=T\left(\begin{pmatrix}\lambda v_1\\\vdots\\\lambda v_n\end{pmatrix}\right)\\ &=\lambda v_1\\ &=\lambda T(\vec{v}) \end{array} \end{array} ∙ ∀ v = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ , w = ⎝ ⎜ ⎜ ⎛ w 1 ⋮ w n ⎠ ⎟ ⎟ ⎞ T ( v + w ) = T ⎝ ⎜ ⎜ ⎛ ⎝ ⎜ ⎜ ⎛ v 1 + w 1 ⋮ v n + w n ⎠ ⎟ ⎟ ⎞ ⎠ ⎟ ⎟ ⎞ = v 1 + w 1 = T ( v ) + T ( w ) ∙ ∀ λ ∈ R , T ( λ v ) = T ⎝ ⎜ ⎜ ⎛ ⎝ ⎜ ⎜ ⎛ λ v 1 ⋮ λ v n ⎠ ⎟ ⎟ ⎞ ⎠ ⎟ ⎟ ⎞ = λ v 1 = λ T ( v )
T : R n → R m v ⃗ ↦ T ( v ⃗ ) ≔ A ( v ⃗ ) est lin e ˊ aire (voir plus haut). \begin{aligned}T:\R^n&\rightarrow\R^m\\\vec{v}&\mapsto T(\vec{v})\coloneqq A(\vec{v})\text{ est linéaire (voir plus haut).}\end{aligned} T : R n v → R m ↦ T ( v ) : = A ( v ) est lin e ˊ aire (voir plus haut).
V = { fonctions f : [ 0 ; 1 ] → R continues } V=\{\text{fonctions }f:[0;1]\rightarrow\R\text{ continues}\} V = { fonctions f : [ 0 ; 1 ] → R continues } (V V V est un EV).
∙ V ′ = R T : V → V ′ f ↦ T ( f ) ≔ f ( 0 ) est lin e ˊ aire . ∙ V ′ = R 2 T : V → V ′ f ↦ T ( f ) ≔ ( ∫ 0 1 / 2 f ( x ) d x ∫ 1 / 2 1 f ( x ) d x ) est lin e ˊ aire . \begin{array}{ll}\bullet \quad V'=\R\\&\begin{aligned}T:V&\rightarrow V'\\f&\mapsto T(f) \coloneqq f(0) \text{ est linéaire}.\end{aligned}\\\bullet \quad V'=\R^2\\&\begin{aligned}T:V&\rightarrow V'\\f&\mapsto T(f) \coloneqq \begin{pmatrix}\int^{1/2}_{0}f(x)\mathrm{d}x\\\text{}\\\int^{1}_{1/2}f(x)\mathrm{d} x\end{pmatrix}\text{ est linéaire}.\end{aligned}\end{array} ∙ V ′ = R ∙ V ′ = R 2 T : V f → V ′ ↦ T ( f ) : = f ( 0 ) est lin e ˊ aire . T : V f → V ′ ↦ T ( f ) : = ⎝ ⎜ ⎜ ⎛ ∫ 0 1 / 2 f ( x ) d x ∫ 1 / 2 1 f ( x ) d x ⎠ ⎟ ⎟ ⎞ est lin e ˊ aire .
Si T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire,
T ( v + w ) = T ( v ) + T ( w ) T(v\textcolor{red}{+}w)=T(v)\textcolor{blue}{+}T(w) T ( v + w ) = T ( v ) + T ( w ) .
Note :
Le "+ \color{red}+ + " dans V V V !
Le "+ \color{blue}+ + " dans V ′ V' V ′ !
Si T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire, alors
T ( 0 ) = 0 ′ T(\textcolor{red}{0})=\textcolor{blue}{0'} T ( 0 ) = 0 ′
Note :
Le "0 \color{red}0 0 " dans V V V !
Le "0 \color{blue}0 0 " dans V ′ V' V ′ !
En effet, T ( 0 ) = T ( v − v ) o u ˋ v ∈ V ↓ T lin e ˊ aire = T ( v ) − T ( v ) = 0 ! \begin{aligned}T(0)&=T(v-v)\quad \text{où }v \in V\\ &\Big\downarrow{T\text{ linéaire}}\\&=T(v)-T(v)=0!\end{aligned} T ( 0 ) = T ( v − v ) o u ˋ v ∈ V ↓ ⏐ ⏐ ⏐ T lin e ˊ aire = T ( v ) − T ( v ) = 0 !
Soit T : V → V ′ T:V\rightarrow V' T : V → V ′ linéaire. Le noyau de T T T est K e r ( T ) ≔ { v ∈ V ∣ T ( v ) = 0 ′ } ⊂ V \mathrm{Ker}(T)\coloneqq\{v\in V\vert T(v)=0'\}\sub V K e r ( T ) : = { v ∈ V ∣ T ( v ) = 0 ′ } ⊂ V .
Rappel : K e r ( T ) \mathrm{Ker}(T) K e r ( T ) n'est jamais vide : 0 ∈ K e r ( T ) 0\in\mathrm{Ker}(T) 0 ∈ K e r ( T ) .
Soit T : V → V ′ T:V\rightarrow V' T : V → V ′ linéaire. Alors
K e r ( T ) \mathrm{Ker}(T) K e r ( T ) est un SEV de V V V . ( K e r ( T ) ⊂ V ) \quad (\mathrm{Ker}(T)\sub V) ( K e r ( T ) ⊂ V ) .
I m ( T ) \mathrm{Im}(T) I m ( T ) est un SEV de V ′ V' V ′ . ( I m ( T ) ⊂ V ′ ) \quad (\mathrm{Im}(T)\sub V') ( I m ( T ) ⊂ V ′ ) .
Soient v , w ∈ K e r ( T ) v,w\in\mathrm{Ker}(T) v , w ∈ K e r ( T ) . Alors
v , w ∈ K e r ( T ) ↷ ∙ T ( v + w ) = T ( v ) + T ( w ) = 0 ′ + 0 ′ = 0 ′ Donc v + w ∈ K e r ( T ) . \begin{array}{lll}& &_{v,w\in\mathrm{Ker}(T)}&\\&&\curvearrowright\\\bullet &T(v+w)\quad= T(v)+T(w)&=0'+0'=0'&\\&\text{Donc }v+w\in\mathrm{Ker}(T).&&\end{array} ∙ T ( v + w ) = T ( v ) + T ( w ) Donc v + w ∈ K e r ( T ) . v , w ∈ K e r ( T ) ↷ = 0 ′ + 0 ′ = 0 ′
∙ ∀ λ ∈ R , T ( λ v ) = λ T ( v ) = λ 0 ′ = 0 ′ , Donc λ v ∈ K e r ( T ) . \begin{array}{llll}\bullet&\forall\lambda\in\R,\quad T(\lambda v)=\lambda T(v)=\lambda0'=0',\\&\text{Donc }\lambda v\in\mathrm{Ker}(T).\end{array} ∙ ∀ λ ∈ R , T ( λ v ) = λ T ( v ) = λ 0 ′ = 0 ′ , Donc λ v ∈ K e r ( T ) .
Comme 0 ∈ K e r ( T ) , on a bien que K e r ( T ) est un SEV de V . □ \begin{array}{lr} \text{Comme }0\in\mathrm{Ker}(T), \text{on a bien que }\mathrm{Ker}(T)\text{ est un SEV de }V.&\\ &\square \end{array} Comme 0 ∈ K e r ( T ) , on a bien que K e r ( T ) est un SEV de V . □
À faire en exercice.
T : R 3 → R v ⃗ = ( v 1 v 2 v 3 ) ↦ T ( v ⃗ ) ≔ v 1 \begin{aligned}T:\,&\R^3\rightarrow\R\\&\vec{v}=\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}\mapsto T(\vec{v})\coloneqq v_1\end{aligned} T : R 3 → R v = ⎝ ⎜ ⎛ v 1 v 2 v 3 ⎠ ⎟ ⎞ ↦ T ( v ) : = v 1
Calculons K e r ( T ) = { v ⃗ = ( v 1 v 2 v 3 ) ∈ R 3 ∣ v 1 = 0 } = { ( 0 v 2 v 3 ) ∣ v 2 , v 3 libres } = { λ ( 0 1 0 ) ⏟ v ⃗ 1 + μ ( 0 0 1 ) ⏟ v ⃗ 2 ∣ λ , μ libres } = V e c t { v ⃗ 1 , v ⃗ 2 } . \begin{aligned}\mathrm{Ker}(T)&=\left\{\vec{v}=\left.\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}\in\R^3\right\vert v_1=0\right\}\\&=\left\{\left.\begin{pmatrix} 0\\v_2\\v_3\end{pmatrix}\right\vert v_2,v_3\text{ libres}\right\}\\ &=\left\{\lambda\underbrace{\begin{pmatrix}0\\1\\0\end{pmatrix}}_{\vec{v}_1}+\mu\left.\underbrace{\begin{pmatrix}0\\0\\1\end{pmatrix}}_{\vec{v}_2}\right\vert\lambda,\mu\text{ libres}\right\}\\ &=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2\}. \end{aligned} K e r ( T ) = ⎩ ⎪ ⎨ ⎪ ⎧ v = ⎝ ⎜ ⎛ v 1 v 2 v 3 ⎠ ⎟ ⎞ ∈ R 3 ∣ ∣ ∣ ∣ ∣ ∣ ∣ v 1 = 0 ⎭ ⎪ ⎬ ⎪ ⎫ = ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 0 v 2 v 3 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ v 2 , v 3 libres ⎭ ⎪ ⎬ ⎪ ⎫ = ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ λ v 1 ⎝ ⎜ ⎛ 0 1 0 ⎠ ⎟ ⎞ + μ v 2 ⎝ ⎜ ⎛ 0 0 1 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ λ , μ libres ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫ = V e c t { v 1 , v 2 } .
T : R n → R m v ⃗ ↦ T ( v ⃗ ) ≔ A x ⃗ \begin{aligned}T:\,&\R^n\rightarrow\R^m\\&\vec{v}\mapsto T(\vec{v})\coloneqq A\vec{x}\end{aligned} T : R n → R m v ↦ T ( v ) : = A x
K e r ( T ) = { x ⃗ ∈ R n ∣ A x ⃗ = 0 ⃗ } = K e r ( A ) I m ( T ) = { y ∈ R m ∣ ∃ x ⃗ ∈ R n tel que A x ⃗ = y ⃗ } = { y ∈ R m ∣ y ⃗ est combinaison lin e ˊ aire des colonnes de A = [ a ⃗ 1 , a ⃗ 2 , … , a ⃗ n ] } = V e c t { a ⃗ 1 , a ⃗ 2 , … , a ⃗ n } = C o l ( A ) ou I m ( A ) \begin{aligned}\mathrm{Ker}(T)&=\{\vec{x}\in\R^n\vert A\vec{x}=\vec{0}\}=\mathrm{Ker}(A)\\ \mathrm{Im}(T)&=\{y\in\R^m\vert\exist\vec{x}\in\R^n\text{ tel que }A\vec{x}=\vec{y}\}\\ &=\{y\in\R^m\vert\vec{y}\text{ est combinaison linéaire des colonnes de }A=[\vec{a}_1,\vec{a}_2,\ldots,\vec{a}_n]\}\\ &=\mathrm{Vect}\{\vec{a}_1,\vec{a}_2,\ldots,\vec{a}_n\}\\ &=\mathrm{Col}(A)\text{ ou }\mathrm{Im}(A) \end{aligned} K e r ( T ) I m ( T ) = { x ∈ R n ∣ A x = 0 } = K e r ( A ) = { y ∈ R m ∣ ∃ x ∈ R n tel que A x = y } = { y ∈ R m ∣ y est combinaison lin e ˊ aire des colonnes de A = [ a 1 , a 2 , … , a n ] } = V e c t { a 1 , a 2 , … , a n } = C o l ( A ) ou I m ( A )
Comme K e r ( A ) , I m ( A ) \mathrm{Ker}(A),\mathrm{Im}(A) K e r ( A ) , I m ( A ) sont des SEV, on aimerait pouvoir les décrire comme étant engendrés par des familles finies de vecteurs particuliers.
Calculons K e r ( A ) \mathrm{Ker}(A) K e r ( A ) , où
A = ( − 3 6 − 1 + 1 − 7 1 − 2 2 3 − 1 2 − 4 5 8 − 4 ) A=\left(\begin{array}{rrrrr}-3&6&-1&\textcolor{white}{+}1&-7\\ 1&-2&2&3&-1\\ 2&-4&5&8&-4 \end{array}\right) A = ⎝ ⎜ ⎛ − 3 1 2 6 − 2 − 4 − 1 2 5 + 1 3 8 − 7 − 1 − 4 ⎠ ⎟ ⎞
A x ⃗ = 0 ⃗ ⟹ matrice augment e ˊ e ⇓ r e ˊ duction ( 1 − 2 0 − 1 3 0 0 0 + 1 2 − 2 0 0 0 0 0 0 0 ) \begin{array}{rl}A\vec{x}=\vec{0}&\Longrightarrow\text{matrice augmentée}\\ &\qquad\qquad\quad\Downarrow_{\text{ réduction}}\\ &\left(\begin{array}{rrrrr:r}\textcolor{blue}{1}&-2&0&-1&3&0\\ 0&0&\textcolor{white}{+}\textcolor{blue}{1}&2&-2&0\\ 0&0&0&0&0&0 \end{array}\right) \end{array} A x = 0 ⟹ matrice augment e ˊ e ⇓ r e ˊ duction ⎝ ⎜ ⎛ 1 0 0 − 2 0 0 0 + 1 0 − 1 2 0 3 − 2 0 0 0 0 ⎠ ⎟ ⎞
x 2 , x 4 , x 5 x_2,x_4,x_5 x 2 , x 4 , x 5 sont libres.
→ K e r ( A ) = { x ⃗ = λ ( 2 1 0 0 0 ) ⏟ v ⃗ 1 + μ ( 1 0 − 2 1 0 ) ⏟ v ⃗ 2 + ν ( − 3 0 2 0 1 ) ⏟ v ⃗ 3 ∣ λ , μ , ν libres } = V e c t { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \begin{aligned}\rightarrow\mathrm{Ker}(A) &=\left\{\vec{x}=\lambda\left.\underbrace{\begin{pmatrix}2\\1\\0\\0\\0\end{pmatrix}}_{\vec{v}_1}+\mu\underbrace{\begin{pmatrix}1\\0\\-2\\1\\0\end{pmatrix}}_{\vec{v}_2}+\nu\underbrace{\begin{pmatrix}-3\\0\\2\\0\\1\end{pmatrix}}_{\vec{v}_3}\right\vert\lambda,\mu,\nu\text{ libres} \right\}\\ &=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2,\vec{v}_3\} \end{aligned} → K e r ( A ) = ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ x = λ v 1 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 2 1 0 0 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + μ v 2 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 0 − 2 1 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + ν v 3 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ − 3 0 2 0 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ λ , μ , ν libres ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫ = V e c t { v 1 , v 2 , v 3 }
Remarques :
{ v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \{\vec{v}_1,\vec{v}_2,\vec{v}_3\} { v 1 , v 2 , v 3 } sont linéairement indépendants !
Le nombre de vecteurs qui sont nécessaires pour engendre le K e r ( A ) \mathrm{Ker}(A) K e r ( A ) est égal au nombre de variables libres dans A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 .
En général, K e r ( A ) \mathrm{Ker}(A) K e r ( A ) pourra toujours être engendré par k k k vecteurs linéairement indépendants, où k k k est le nombre de variables libres dans A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 .
Soit W ⊂ V W\sub V W ⊂ V un SEV de V V V , et B = { v 1 , v 2 , … , v p } ⊂ W \mathcal{B}=\{v_1,v_2,\ldots,v_p\}\sub W B = { v 1 , v 2 , … , v p } ⊂ W une famille non-vide de vecteurs de W W W .
On dit que B \mathcal{B} B est une base de W W W si
B \mathcal{B} B engendre W : W = V e c t { v 1 , v 2 , … , v p } W:W=\mathrm{Vect}\{v_1,v_2,\ldots,v_p\} W : W = V e c t { v 1 , v 2 , … , v p } , et
B \mathcal{B} B est libre.
Si B = { v 1 , v 2 , … , v p } \mathcal{B}=\{v_1,v_2,\ldots,v_p\} B = { v 1 , v 2 , … , v p } est une base de W W W , prenons un w ∈ W w\in W w ∈ W . Puisque B \mathcal{B} B engendre W , ∃ α 1 , α 2 , … , α p ∈ R W,\exist\alpha_1,\alpha_2,\ldots,\alpha_p\in\R W , ∃ α 1 , α 2 , … , α p ∈ R tels que w = α 1 v 1 + α 2 v 2 + … + α p v p ( ∗ ) \boxed{w=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p}\quad(*) w = α 1 v 1 + α 2 v 2 + … + α p v p ( ∗ )
Ces α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p sont les composantes de w w w relativement à B \mathcal{B} B .
Les α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p (associés à w w w via ( ∗ ) (*) ( ∗ ) ) sont uniques !
Supposons que w = α 1 v 1 + α 2 v 2 + … + α p v p et que − w = β 1 v 1 + β 2 v 2 + … + β p v p ‾ \begin{aligned}w=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p &\text{ et que}\\ \color{red}\underline{\color{black}\textcolor{red}{-}\quad w=\beta_1v_1+\beta_2v_2+\ldots+\beta_pv_p}\text{ }\\ \end{aligned} w = α 1 v 1 + α 2 v 2 + … + α p v p − w = β 1 v 1 + β 2 v 2 + … + β p v p et que
0 = ( α 1 − β 1 ) v 1 + … + ( α p − β p ) v p \qquad\qquad\qquad\qquad\text{ }0=(\alpha_1-\beta_1)v_1+\ldots+(\alpha_p-\beta_p)v_p 0 = ( α 1 − β 1 ) v 1 + … + ( α p − β p ) v p
Comme { v 1 , v 2 , … , v p } \{v_1,v_2,\ldots,v_p\} { v 1 , v 2 , … , v p } est libre (car B \mathcal{B} B est une base), on a que
α 1 − β 1 = 0 ⟹ α 1 = β 1 ⋮ α p − β p = 0 ⟹ α p = β p □ \begin{array}{lr}\begin{aligned}\alpha_1&-\beta_1=0&\implies\alpha_1=\beta_1\\ &\text{ }\vdots&\\ \alpha_p&-\beta_p=0&\implies\alpha_p=\beta_p \end{aligned}\\ &\square \end{array} α 1 α p − β 1 = 0 ⋮ − β p = 0 ⟹ α 1 = β 1 ⟹ α p = β p □
Remarque : il est important de souligner que la composante α k ( k ∈ { 1 , 2 , … , p } ) \alpha_k\quad(k\in\{1,2,\ldots,p\}) α k ( k ∈ { 1 , 2 , … , p } ) est associées à v k v_k v k ! Dorénavant, nous ferons donc attention à indiquer l'ordre des vecteurs v k v_k v k dans B \mathcal{B} B :
B = { v 1 , v 2 , … , v p } ⟹ B = ( v 1 , v 2 , … , v p ) \cancel{\mathcal{B}=\{v_1,v_2,\ldots,v_p\}} \Longrightarrow\mathcal{B}=(v_1,v_2,\ldots,v_p) B = { v 1 , v 2 , … , v p } ⟹ B = ( v 1 , v 2 , … , v p )
Ce qu'on construit, en introduisant les composantes de w w w dans la base B = ( v 1 , v 2 , … , v p ) \mathcal{B}=(v_1,v_2,\ldots,v_p) B = ( v 1 , v 2 , … , v p ) , c'est une fonction :
[ ⋅ ] B : W → R p w ↦ [ w ] B = ( α 1 ⋮ α p ) \begin{aligned}[\cdot]_{\mathcal{B}}:\,&W\rightarrow\R^p\\ &\textcolor{red}{w}\mapsto[w]_{\mathcal{B}}=\color{blue}\begin{pmatrix}\alpha_1\\\vdots\\\alpha_p\end{pmatrix} \end{aligned} [ ⋅ ] B : W → R p w ↦ [ w ] B = ⎝ ⎜ ⎜ ⎛ α 1 ⋮ α p ⎠ ⎟ ⎟ ⎞
Notes :
∙ w est un vecteur "abstrait" de W . ∙ ( α 1 ⋮ α p ) est la repr e ˊ sentation "concr e ˋ te" de w dans une base. \begin{array}{lll}&\bullet&\textcolor{red}{w} \text{ est un vecteur "abstrait" de }W.\\ &\bullet&\textcolor{blue}{\begin{pmatrix}\alpha_1\\\vdots\\\alpha_p\end{pmatrix}}\text{ est la représentation "concrète" de }w \text{ dans une base.}\end{array} ∙ ∙ w est un vecteur "abstrait" de W . ⎝ ⎜ ⎜ ⎛ α 1 ⋮ α p ⎠ ⎟ ⎟ ⎞ est la repr e ˊ sentation "concr e ˋ te" de w dans une base.
A A A , la matrice ( 3 × 5 ) (3\times5) ( 3 × 5 ) du mardi. On étudie
T : R 5 → R 3 x ⃗ ↦ T ( x ⃗ ) ≔ A x ⃗ \begin{aligned} T:\,&\R^5\rightarrow\R^3\\ &\vec{x}\mapsto T(\vec{x})\coloneqq A\vec{x} \end{aligned} T : R 5 → R 3 x ↦ T ( x ) : = A x
K e r ( A ) \mathrm{Ker}(A) K e r ( A ) est un SEV de R 5 \R^5 R 5 et on a vu que
K e r ( A ) = V e c t { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \mathrm{Ker}(A)=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2,\vec{v}_3\} K e r ( A ) = V e c t { v 1 , v 2 , v 3 } , donc { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \{\vec{v}_1,\vec{v}_2,\vec{v}_3\} { v 1 , v 2 , v 3 } engendre K e r ( A ) \mathrm{Ker}(A) K e r ( A ) . De plus, est est libre, donc B = ( v ⃗ 1 , v ⃗ 2 , v ⃗ 3 ) \mathcal{B}=(\vec{v}_1,\vec{v}_2,\vec{v}_3) B = ( v 1 , v 2 , v 3 ) est une base de K e r ( A ) \mathrm{Ker}(A) K e r ( A ) .
Si x ⃗ ∈ K e r ( A ) \vec{x}\in\mathrm{Ker}(A) x ∈ K e r ( A ) s'écrit x ⃗ = λ v ⃗ 1 + μ v ⃗ 2 + ν v ⃗ 3 \vec{x}=\lambda\vec{v}_1+\mu\vec{v}_2+\nu\vec{v}_3 x = λ v 1 + μ v 2 + ν v 3 , on a donc
[ x ⃗ ] B = ( λ μ ν ) [\vec{x}]_{\mathcal{B}}=\begin{pmatrix}\lambda\\\mu\\\nu\end{pmatrix} [ x ] B = ⎝ ⎜ ⎛ λ μ ν ⎠ ⎟ ⎞
Ainsi, même si x ⃗ ∈ R 5 \vec{x}\in\R^5 x ∈ R 5 , pour décrire K e r ( A ) \mathrm{Ker}(A) K e r ( A ) on n'a besoin que de 3 composantes !
(Cas W = V W=V W = V ) : on dit que B = ( v 1 , … , v n ) ⊂ V \mathcal{B}=(v_1,\ldots,v_n)\sub V B = ( v 1 , … , v n ) ⊂ V est une base de V V V si
B \mathcal{B} B engendre V V V :
V = V e c t { v 1 , … , v p } V=\mathrm{Vect}\{v_1,\ldots,v_p\} V = V e c t { v 1 , … , v p }
B \mathcal{B} B est libre.
V = R n : si x ⃗ ∈ R n V=\R^n:\text{si }\vec{x}\in\R^n V = R n : si x ∈ R n ,
x ⃗ = ( x 1 x 2 x 3 ⋮ x n ) = x 1 ( 1 0 0 ⋮ 0 ) + x 2 ( 0 1 0 ⋮ 0 ) + … + x n ( 0 0 0 ⋮ 1 ) \vec{x}=\begin{pmatrix}x_1\\x_2\\x_3\\\vdots\\x_n\end{pmatrix}=x_1\begin{pmatrix}1\\0\\0\\\vdots\\0\end{pmatrix}+x_2\begin{pmatrix}0\\1\\0\\\vdots\\0\end{pmatrix}+\ldots+x_n\begin{pmatrix}0\\0\\0\\\vdots\\1\end{pmatrix} x = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 x 3 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ = x 1 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 0 0 ⋮ 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + x 2 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 0 1 0 ⋮ 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + … + x n ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 0 0 0 ⋮ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞
Donc B ≔ ( e ⃗ 1 , e ⃗ 2 , … , e ⃗ n ) \mathcal{B}\coloneqq(\vec{e}_1,\vec{e}_2,\ldots,\vec{e}_n) B : = ( e 1 , e 2 , … , e n )
∙ engendre R n ∙ est libre. } B est une base, appel e ˊ e base canonique de R n \left.\begin{array}{l}\quad\bullet\quad\text{engendre }\R^n\\ \quad\bullet\quad\text{est libre.} \end{array}\right\}\mathcal{B}\text{ est une base, appelée }\textbf{base canonique }\text{de }\R^n ∙ engendre R n ∙ est libre. } B est une base, appel e ˊ e base canonique de R n
Remarque : dans ce cas,
[ x ⃗ ] B = ( x 1 ⋮ x n ) [\vec{x}]_{\mathcal{B}}=\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} [ x ] B = <