Équations vectorielles

Vecteur de Rn\R^n

On identifie chaque "liste" (x1,x2,,xn)Rn(x_1,x_2,\ldots,x_n)\in\R^n avec un vecteur de Rn\R^n noté

x=(x1x2xn)\vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix}
L3_1.png

Addition vectorielle

Si x=(x1x2xn),y=(y1y2yn),x+y(x1+y1x2+y2xn+yn)\text{Si } \vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix},\vec{y}= \begin{pmatrix} y_1 \\ y_2 \\ \vdots\\ y_n \end{pmatrix},\vec{x}+\vec{y}\coloneqq \begin{pmatrix} x_1 + y_1 \\ x_2 +y_2 \\ \vdots\\ x_n + y_n \end{pmatrix}

Géométriquement, l'addition correspond à la règle du parallélogramme :

L3_2.png

Remarques

  • Le vecteur nul :

    0=(000)\vec{0}= \begin{pmatrix} 0\\ 0\\ \vdots \\ 0\\ \end{pmatrix}
    x,x+0=0+x=x\forall \vec{x}, \vec{x}+\vec{0}=\vec{0}+\vec{x}=\vec{x}
  • Pour tout x\vec{x}, il existe un unique opposé noté x-\vec{x}, tel que

    x+(x)=0\boxed{\vec{x}+(-\vec{x})=\vec{0}}
    Si x=(x1x2xn),x=(x1x2xn)\text{Si } \vec{x}=\begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, -\vec{x}=\begin{pmatrix} -x_1\\ -x_2\\ \vdots\\ -x_n \end{pmatrix}

    IMAGE 3.3

Multiplication d'un vecteur par un scalaire

Si λR\lambda\in\R est un scalaire (c'est-à-dire un nombre sans dimension), et x\vec{x} un vecteur de Rn\R^n :

x=(x1x2xn)\vec{x}=\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}

La multiplication de x\vec{x} par λ\lambda est un vecteur défini par

λx(λx1λx2λxn)\lambda\vec{x}\coloneqq\begin{pmatrix} \lambda x_1\\ \lambda x_2\\ \vdots\\ \lambda x_n \end{pmatrix}

Géométriquement :

L3_4.png

Propriétés

Pour tout x,y,zRn\vec{x},\vec{y},\vec{z}\in\R^n et tout scalaire λ,μR\lambda,\mu\in\R,

Avec l’addition et la multiplication par un scalaire, on peut faire une arithmeˊtique vectorielle.\begin{aligned} \Rightarrow\quad&\text{Avec l'addition et la multiplication par un scalaire, }\\ &\text{on peut faire une arithmétique vectorielle.} \end{aligned}

Colinéarité

Remarque : il s'agit de la généralisation de la notion de "parallélisme" à nn dimensions.

Définition

Deux vecteurs x\vec{x}, y\vec{y} de Rn\R^n sont colinéaires si l'un peut s'obtenir à partir de l'autre par la multiplication par un scalaire. Autrement dit, il doit exister un λR\lambda\in\R tel que x=λy\vec{x}=\lambda\vec{y} ou y=λx\vec{y}=\lambda\vec{x}.

Exemples

L3_5.png

Remarque : le vecteur nul 0\vec{0} est colinéaire à tous les vecteurs de Rn\R^n, puisque x,0=0x\forall \vec{x},\vec{0}=0\vec{x}.

Combinaisons linéaires

Définition

Soient v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p des vecteurs de Rn\R^n et α1,α2,,αp\alpha_1,\alpha_2,\ldots,\alpha_p des scalaires (αiR,i=1,2,,p)(\alpha_i\in\R,\forall i =1,2,\ldots,p).

Alors α1v1+α2v2++αpvpRn\alpha_1\vec{v}_1+\alpha_2\vec{v}_2+\ldots+\alpha_p\vec{v}_p\in\R^n est une combinaison linéaire des v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p; les α1,α2,,αp\alpha_1,\alpha_2,\ldots,\alpha_p sont ses coefficients.

Combinaison linéaire de deux vecteurs

Partie engendrée par une famille de vecteurs

Définition

Soient v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p des vecteurs de Rn\R^n. La partie de Rn\R^n engendrée par les v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p est l'ensemble des points de Rn\R^n associés à toutes les combinaisons possibles des v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p.

Notation : Vect{v1,v2,,vp}Rn\text{Vect}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\}\sub\R^n, en anglais Span{v1,v2,,vp}\text{Span}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\}.

Exemples

Formulation matricielle d'un système linéaire

(){a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm“systeˋme"eˊquation vectorielle"x1(a11am1)a1+x2(a12am2)a2++xn(a1namn)=(b1bm)an\begin{array}{rl} (*) &\begin{cases} a_{11}x_1+a_{12}x_2+\ldots+a_{1n}x_n &= b_1 \\ a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n &= b_2 \\ \vdots \\ a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n &= b_m \\ \end{cases}\\ \\ & \qquad \text{\textquotedblleft système"}\\ & \qquad \qquad \Updownarrow &\\ & \text{\textquotedblleft équation vectorielle"} \\ \\ & x_1\underbrace{\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}} _{\vec{a}_1} + x_2\underbrace{\begin{pmatrix}a_{12}\\ \vdots \\ a_{m2}\end{pmatrix}} _{\vec{a}_2} + \ldots + x_n\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix} = \underbrace{\begin{pmatrix}b_{1}\\ \vdots \\ b_{m}\end{pmatrix}} _{\vec{a}_n} \end{array}

Ces vecteurs(aiRm)(\vec{a_{i}}\in\mathbb{R}^{m}) sont les colonnes de la matrice AA (m×n)(m \times n) associée à ()(*).

Définition

Soit AA une matrice (m×n)(m \times n), A=[a1an]A = [\vec{a}_1\cdots\vec{a}_n], aiRm\vec{a}_i\in\mathbb{R}^{m}, et si

x=(x1xn)Rn,\vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix}\in \mathbb{R}^n,

on définit AxA\vec{x} comme le vecteur de Rm\mathbb{R}^m définit par

Axx1a1++xnan,\boxed{A\vec{x}\coloneqq x_1\vec{a}_1 + \ldots + x_n\vec{a}_n}\text{,{}}

AxA\vec{x} est le produit de AA par x\vec{x}.

Contrainte : A(m×n)A (m \times \textcolor{red}{n}) multiple xRn\vec{x}\in\mathbb{R}^\color{red}n

On a ainsi une fonction : xf(x)Ax\vec{x}\mapsto f(\vec{x})\coloneqq A\vec{x}

Image aˋ mettre\color{red}\text{Image à mettre}

Lemme

La fonction xAx\vec{x} \mapsto A\vec{x} est linéraire, c'est-à-dire :

  1. x,y,A(x+y=Ax+Ay)\forall \vec{x},\vec{y},\, A(\vec{x}+\vec{y} = A\vec{x} + A\vec{y})

  2. xRn,λR,A(λx)=λAx.\forall \vec{x} \in \mathbb{R}^{n}, \, \forall\lambda\in\mathbb{R},\,A(\lambda\vec{x}) = \lambda A\vec{x}.

Preuve de 1.

Si A=[a1an],x=(x1xn),y=(y1yn),A(x+y)=A(x1+y1xn+yn)=deˊf(x1+y1)a1++(xn+yn)an=(x1a1++xnanAx)+(y1a1++ynanAy)\begin{array}{lr}\text{Si }A = [\vec{a_1}\cdots\vec{a}*n], \, \vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix},\vec{y} =\begin{pmatrix}y_1\\ \vdots \\ y_n \end{pmatrix},&\\ A(\vec{x}+\vec{y}) = A \begin{pmatrix} x_1+y_1 \\ \vdots \\ x_n + y_n \end{pmatrix} \stackrel{\text{déf}}{=}(x_1+y_1)\vec{a}_1 + \ldots + (x_n+y_n)\vec{a}_n &\\= (\underbrace{x_1\vec{a}_1+\ldots+x_n\vec{a}_n}_{A\vec{x}})+ (\underbrace{y_1\vec{a}_1+\ldots+y_n\vec{a}_n}_{A\vec{y}}) \\ &\square\end{array}

Reformulons ()(*) sous forme vectorielle :

 A=[a1an],b=(b1bm),\\\ A = [\vec{a}_1 \cdots \vec{a}_n],\, \vec{b} = \begin{pmatrix}b_1 \\ \vdots \\ b_m\end{pmatrix},

()(*) devient Ax=b()A\vec{x} = \vec{b}\,(**), où xRn\vec{x}\in \mathbb{R}^n et yRm\vec{y}\in\mathbb{R}^m.

Une preuve "compacte" du théorème "00, 11, \infty" : Supposons que ()(**) possède deux solutions distinctes : x\vec{x} et y (x,yRn)\vec{y}\ (\vec{x},\vec{y}\in\mathbb{R}^n)

Ax=bAy=bA\vec{x} = \vec{b}\\ A\vec{y} = \vec{b}

Soit,zx+λ(yxv0) ouˋ λR est quelconque.Alors Az=A(x+λ(yx))=Ax+A(λ(yx))=Axb+λ(AyAx0(Rm))=b\begin{array}{lr}\text{Soit},\vec{z}\coloneqq \vec{x} + \lambda(\overbrace{\vec{y}-\vec{x}}^{\textcolor{blue}{\vec{v}} \not = \vec{0}})\text{ où }\lambda \in \mathbb{R} \text{ est quelconque.}&\\ \begin{array}{rl} \text{Alors } A\vec{z} &= A(\vec{x} + \lambda (\vec{y} - \vec{x}))\\ &= A\vec{x} + A(\lambda(\vec{y}-\vec{x})) \\ &= \underbrace{A\vec{x}}_{\vec{b}} + \lambda(\underbrace{A\vec{y}-A\vec{x}}_{\vec{0}(\in \mathbb{R}^m)})\\ &=\vec{b} \end{array}& \\ &\square\end{array} Image aˋ mettre\color{red}\text{Image à mettre}

Remarque sur "AxA\vec{x}" :

Si A=[a1an],x=(x1xn),Ax=x1a1++xnanse calcule :(a11a12a13a1na21a22a23a2nam1am2am3amn)(x1x2xn)=(a11x1a12x2a1nxna21x1a22x2a2nxnam1x1am2x2amnxn)\begin{aligned}\text{Si \,}A = [\vec{a}_1\cdots\vec{a}_n], \, \vec{x} = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix},\, A\vec{x} = x_1\vec{a}_1 + \ldots + x_n\vec{a}_n \\ \text{se calcule :} \begin{pmatrix} \textcolor{orange}{a_{11}} & \textcolor{blue}{a_{12}} & a_{13} & \cdots & \textcolor{red}{a_{1n}} \\ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\ \vdots & \vdots & \vdots & & \vdots \\ a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} \end{pmatrix}\begin{pmatrix} \textcolor{orange}{x_1} \\ \textcolor{blue}{x_2} \\ \vdots \\ \textcolor{red}{x_n} \end{pmatrix} \\ \text{} \\= \begin{pmatrix} \textcolor{orange}{a_{11}x_1} & \textcolor{blue}{a_{12}x_2} & \cdots & \textcolor{red}{a_{1n}x_n} \\ a_{21}x_1 & a_{22}x_2 & \cdots & a_{2n}x_n \\ \vdots & \vdots & & \vdots \\ a_{m1}x_1 & a_{m2}x_2 & \cdots & a_{mn}x_n \end{pmatrix} \end{aligned}

Conclusion : Ax=b    bA\vec{x}=\vec{b} \iff \vec{b} est une combinaison linéaire des solonnes de A.    bVect{a1,,an}A. \iff \vec{b} \in \text{Vect}\{\vec{a}_1,\ldots,\vec{a}_{n}\}, où les a1,an\vec{a}_1, \ldots\vec{a}_n sont les colonnes de A.A.

Strucutre de l'enemblte des solution de Ax=bA\vec{x} = \vec{b}

Déf :

{Si b=0, le systeˋme Ax=0 est homogeˋne.Si b0, le systeˋme Ax=0 est inhomogeˋne.\begin{cases} \text{Si } \vec{b} = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{homogène}. \\ \text{Si } \vec{b} \not = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{inhomogène}. \end{cases}

Systèmes homogènes

Remarque : Tout système homogène Ax=0(Rm)A\vec{x} = \vec{0} \,(\in \mathbb{R}^m) possède la solution triviale : x=0(Rn)\vec{x} = \vec{0} \, (\in \mathbb{R}^{n})

Intéressant : savoir s'il existe des solutions non-trivales, et décrire leur structure.

Remarque : Dès qu'on a vue solution non-triviale pour Ax=0A\vec{x} = \vec{0}, on en a une infinité. En effet, si v0\vec{v}\not =\vec{0} et si Av=0A\vec{v} = \vec{0}. Alors, pour tout scalaire λR\lambda \in \mathbb{R}, si wλv\vec{w}\coloneqq\lambda\vec{v} , on a que

Aw=A(λv)=λAv=0=λ0=0,A\vec{w} = A(\lambda\vec{v}) = \lambda \underbrace{A\vec{v}}_{=\vec{0}} = \lambda \vec{0} = \vec{0},

donc w\vec{w} est aussi une solution non-triviale de Ax=0A\vec{x} = \vec{0}.

Exemple 1

(354324b18)(x1x2x3)=(000)()Ax0homogeˋneSysteˋme reˊduit:[1043001000000]{x1=43x3x2=0x3 libreEnsemble des solutions de ():{(43x30x3)x3 libre}={λvλR}=Vect{v} ouˋ v=(4301)\begin{array}{ccccl} \begin{pmatrix} 3 & 5 & -4 \\ -3 & -2 & 4 \\ b & 1 & -8 \\ \end{pmatrix}&\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \end{pmatrix}& = &\begin{pmatrix} 0 \\ 0 \\ 0 \\ \end{pmatrix}&(*)\\ \\ A&\vec{x}& & \vec{0} & \leftarrow\text{homogène} \end{array}\\ \\ \text{} \\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{ccc:c} 1 & 0 & -\frac{4}{3} & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = \frac{4}{3}x_3 \\ x_2 = 0 \\ x_3 \text{ libre} \end{cases}\\ \\ \text{Ensemble des solutions de } (*) : \end{array}\\ \text{} \\ \begin{Bmatrix} \left. \begin{pmatrix} \frac{4}{3}x_3\\ 0 \\ x_3 \end{pmatrix}\right\vert x_3 \text{ libre} \end{Bmatrix} = \{\lambda\vec{v}|\lambda \in\R \} = \textcolor{red}{\text{Vect}\{\vec{v}\}} \text{ où }\vec{v} = \begin{pmatrix} \frac{4}{3} \\ 0 \\ 1 \end{pmatrix}

Remarque : Vect{v}\color{red}\text{Vect}\{\vec{v}\} est la droite de R3\R^3 dirigée pas v\vec{v}, passant par l'origine.

Exemple 2

(11111010)(x1x2x3x4)=(00)Systeˋme reˊduit:[1010001000]{x1=x3x2=2x3x4x3 et x4 libresEnsemble des solutions de ():{(x32x3x4x3x4)x3,x4 libres}={λ(1210)+μ(0101)x3,x4 libres}=Vect{v1,v2}\begin{pmatrix} 1 & 1 & 1 & 1\\ 1 & 0 & -1 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}\\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{cccc:c} 1 & 0 & -1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = x_3 \\ x_2 = -2x_3-x_4 \\ x_3 \text{ et } x_4 \text{ libres} \end{cases}\\ \text{Ensemble des solutions de } (*) : \\ \text{} \\ \end{array}\\ \begin{array}{rl} &\begin{Bmatrix}\left. \begin{pmatrix} x_3\\ -2x_3-x_4 \\ x_3\\ x_4 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \begin{Bmatrix}\left. \lambda\begin{pmatrix} 1\\-2\\1\\0 \end{pmatrix} + \mu\begin{pmatrix} 0\\-1\\0\\1 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} \end{array}

Remarque : Vect{v1,v2}\color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} est un plan dans R4\R^4 passant par l'origine, engendré par v1\vec{v}_1 et v2\vec{v}_2.

Systèmes inhomogènes Ax=b(0)A\vec{x} = \vec{b} (\not = \vec{0})\color{red}

Théorème

Les solutoins de Ax=bA\vec{x}=\vec{b} peuvent s'écrire x=p+v\vec{x} = \vec{p} + \vec{v}, où

Preuve
Soit p une solution particulieˋre de Ax=b :Soit x une autre solution particulieˋre :Ap=bAx=bA(px)=0Donc px est solution du systeˋme homogeˋne associeˊ ! vpx    x=pv\begin{array}{lr} \begin{array}{l} \text{Soit $\vec{p}$ une solution particulière de $A\vec{x} = \vec{b}$ :}\\ \text{Soit $\vec{x}$ une autre solution particulière :} \\ \text{} \end{array} \begin{array}{rrl} & A\vec{p} &= \vec{b} \\ \textcolor{red}{-}&A\vec{x} &= \vec{b}\\ \hline & A(\vec{p}-\vec{x}) &= \vec{0} \end{array}&\\ \text{Donc }\vec{p}-\vec{x} \text{ est solution du système homogène associé ! }\\ \vec{v}\coloneqq\vec{p}-\vec{x} \implies \vec{x} = \vec{p}-\vec{v}&\\ &\square \end{array}
Exemple 1
(354324b18)(x1x2x3)=(714)AxbSysteˋme reˊduit:[1043101020000]{x1=43x31x2=2x3 libreEnsemble des solutions :{(1+43x32x3)x3 libre}={(120)p+λ(4301)vλR}\begin{array}{cccc} \begin{pmatrix} 3 & 5 & -4 \\ -3 & -2 & 4 \\ b & 1 & -8 \\ \end{pmatrix}&\begin{pmatrix} x_1 \\x_2 \\x_3 \\ \end{pmatrix}& = &\begin{pmatrix} 7 \\ -1 \\ -4 \\ \end{pmatrix}\\ \\ A&\vec{x}& & \vec{b} \end{array}\\ \\ \text{} \\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{ccc:c} 1 & 0 & -\frac{4}{3} & -1 \\ 0 & 1 & 0 & 2 \\ 0 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = \frac{4}{3}x_3-1 \\ x_2 = 2 \\ x_3 \text{ libre} \end{cases}\\ \\ \text{Ensemble des solutions :} \end{array}\\ \text{} \\ \begin{Bmatrix} \left. \begin{pmatrix} -1+\frac{4}{3}x_3\\ 2 \\ x_3 \end{pmatrix}\right\vert x_3 \text{ libre} \end{Bmatrix}\\ \text{}\\ = \begin{Bmatrix} \left. \underbrace{\begin{pmatrix} -1\\2\\0 \end{pmatrix}}_{\vec{p}} + \lambda\underbrace{\begin{pmatrix} \frac{4}{3}\\0\\1 \end{pmatrix}}_{\vec{v}}\right\vert \lambda \in \R \end{Bmatrix}

En variant λ\lambda, ces vecteurs sont toutes les solutions du système homogène associé Ax=0A\vec{x} = \vec{0} (résoli plus haut).

Exemple 2
(11111010)(x1x2x3x4)=(51)Ax=b"Systeˋme reˊduit:[1010101216]{x1=1+x3x2=62x3x4x3 et x4 libresEnsemble des solutions :{(x1x2x3x4)x=(1600)p+λ(1210)v1+μ(0101)v2v, sol. du probleˋme homogeˋne}\begin{pmatrix} 1 & 1 & 1 & 1\\ 1 & 0 & -1 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 5 \\ -1 \end{pmatrix} \qquad \text{\textquotedblleft}A\vec{x}=\vec{b}"\\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{cccc:c} 1 & 0 & -1 & 0 & -1 \\ 0 & 1 & 2 & 1 & 6 \end{array}\right] \rightarrow \begin{cases} x_1 = -1 + x_3 \\ x_2 = 6 -2x_3-x_4 \\ x_3 \text{ et } x_4 \text{ libres} \end{cases}\\ \text{Ensemble des solutions :}\\ \text{} \\ \end{array}\\ \begin{array}{rl} &\begin{Bmatrix} \underbrace{\begin{pmatrix} x_1\\ x_2 \\ x_3\\ x_4 \end{pmatrix}}_{\vec{x}} = \underbrace{\begin{pmatrix} -1\\ 6 \\ 0\\ 0 \end{pmatrix}}_{\color{blue}\vec{p}} + \lambda \underbrace{\overbrace{\begin{pmatrix} 1\\ -2 \\ 1\\ 0 \end{pmatrix}}^{\color{red}\vec{v}_1} + \mu \overbrace{\begin{pmatrix} 0\\ -1 \\ 0\\ 1 \end{pmatrix}}^{\color{red}\vec{v}_2}}_{\vec{v}\text{, sol. du problème homogène}} \end{Bmatrix} \end{array}

Géométriquement : l'ensemble des solution de l'équation "Ax=bA\vec{x} = \vec{b}" est un "plan" de R4\R^4 :

Image aˋ mettre\color{red}\text{Image à mettre}

Dépendance et indépendance linéaire

Motivation : considérons toutes les combinaisons linéaires de deux vecteurs v1,v2\vec{v}_1,\vec{v}_2 du plan

w=α1v1+α2v2\vec{w} = \alpha_1\vec{v}_1+\alpha_2\vec{v}_2

But : essayons de trouver α1,α2\alpha_1,\alpha_2 tels que w=0.\vec{w} = \vec{0}.

  1. Si v1\vec{v}_1 et v2\vec{v}_2 sont colinéaires, il existe une infinité de possibilités pour (α1,α2).(\alpha_1,\alpha_2). Par exemple, si v2=λv1\vec{v}_2 = \lambda\vec{v}_1, pour avoir

    w=α1v1+α2λv1=0(α1+α2λ)v1=0Il suffit de choisir α1(infiniteˊ de choix) puis prendre α2=α1λpour avoir w=0.\begin{array}{rl} \vec{w} &= \alpha_1\vec{v}_1 + \alpha_2\lambda\vec{v}_1 = \vec{0}\\ &\rightarrow (\alpha_1+\alpha_2\lambda)\vec{v}_1 =\vec{0}\\ &\rightarrow \text{Il suffit de choisir }\alpha_1 \text{(infinité de choix)}\\ &\quad\text{ puis prendre }\alpha_2 = -\frac{\alpha_1}{\lambda} \text{pour avoir }\vec{w} = \vec{0}. \end{array}
  2. Si v1\vec{v}_1 et v2\vec{v}_2 ne sont pas coliénaires, la seule possibilité, pour avoir w=0\vec{w} = \vec{0}, est de prendre

    α1=0,α2=0.\alpha_1 = 0 , \alpha_2 = 0.

Conclusion : deux vecteurs v1,v2\vec{v}_1, \vec{v}_2 de Rn\R^n sont non-colinéaires ()"non-parallèles") si et seulement si l'unique façaon d'annuler α1v1+α2v2=0\alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 = \vec{0} est de prendre α1=α2=0.\alpha_1 = \alpha_2 = 0.

Définiton

Une famille de vecteurs de Rn,v1,v2,,vp\R^n, \vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p est dire

Exemple

Dans R3\R^3 : (GGB) = GeoGebra ?\color{red}\text{(GGB) = GeoGebra ?}

Lemme

Une famille {v1vp}\{\vec{v}_1\cdots\vec{v}_p\} est liée     \iff un des vecteurs vk\vec{v}_k peut s'écrire comme combinaison linéaire des autres.

Preuve

Exemple
  1. {(101),(231),(033)}libre ou lieˊe?\begin{Bmatrix} \begin{pmatrix}1\\0\\-1\end{pmatrix}, \begin{pmatrix}2\\-3\\1\end{pmatrix}, \begin{pmatrix}0\\-3\\3\end{pmatrix} \end{Bmatrix} \text{libre ou liée?}

    Comme 2v1v2+v32\vec{v}_1-\vec{v}_2+\vec{v}_3, elle est liée.

    Image aˋ mettre\color{red}\text{Image à mettre}

  2. {(015)v1,(128)v2,(410)v3}libre ou lieˊe?\begin{Bmatrix} \overbrace{\begin{pmatrix}0\\1\\5\end{pmatrix}}^{\vec{v}_1}, \overbrace{\begin{pmatrix}1\\2\\8\end{pmatrix}}^{\vec{v}_2}, \overbrace{\begin{pmatrix}4\\-1\\0\end{pmatrix}}^{\vec{v}_3} \end{Bmatrix} \text{libre ou liée?}

    Par le calcul, on cherche α1,α2,α3\alpha_1,\alpha_2,\alpha_3 tels que

    α1v1+α2v2+α3v3=0eˊquation vectoriellecorrespond aˋ un systeˋme homogeˋne[v1v2v3](α1α2α3)=(000)reˊduction(1210014000130)α1=0α2=0α3=0La famille est libre.\begin{aligned} &\begin{aligned} \alpha_1\vec{v}_1+&\alpha_2\vec{v}_2+\alpha_3\vec{v}_3= \vec{0}\leftarrow\text{équation vectorielle}\\ &\downarrow\text{correspond à un système \textbf{homogène}}\\ [\vec{v}_1\,&\vec{v}_2\,\vec{v}_3]\begin{pmatrix}\alpha_1\\ \alpha_2\\ \alpha_3\end{pmatrix} = \begin{pmatrix}0\\0\\0\\ \end{pmatrix}\\ &\downarrow \text{réduction}\\ \end{aligned}\\ &\left(\begin{array}{ccc:c} 1 & 2 & -1 & 0 \\ 0 & 1 & 4 & 0 \\ 0 & 0 & 13 & 0 \end{array}\right)\rightarrow \begin{array}{l} \alpha_1 = 0\\ \alpha_2 = 0 \\ \alpha_3 = 0 \end{array}\rightarrow \text{La famille est libre.} \end{aligned}

Remarques :

  1. Généralment : une famille {v1,,vp}\{\vec{v}_1,\ldots,\vec{v}_p\} de vecteurs (viR4)(\vec{v}_i\in\R^4)est lieˊe\color{blue}\text{liée} // libre\color{red}\text{libre}.

    \qquad\Updownarrow

    Le système homogène Ax=0A\vec{x}= \vec{0}, où A=[v1vp]A = [\vec{v}_1\cdots\vec{v}_p], possèdedes solutions non triviales\color{blue}\text{des solutions non triviales} // seulement la solution triviale\color{red}\text{seulement la solution triviale}

  2. Une famille contenant le vecteur nul (0)(\vec{0}) est toujours liée.

    (En effet, si vk=0\vec{v}_k = \vec{0}, alors

    0v1++0vk1+1vk++vpcomb. lin. dont les coeff. ne sont pas tous nuls !=0\underbrace{0\vec{v}_1 + \ldots+0\vec{v_{k-1}}+1\vec{v}_k+\dots+\vec{v}_p}_{\text{comb. lin. dont les coeff. ne sont pas tous nuls !}} = \vec{0}

        v1vp\implies {\vec{v}_1\cdots\vec{v}_p} est liée.)

    Donc une "famille libre" ne contient jamias le 0\vec{0} !

(IN-)dépendance linéaire et dimension

Rappel : Deux vecteurs v1,v2R2\vec{v}_1,\vec{v}_2\in\R^2 non-colinéaires engendrent tout R2\R^2.

(GGB) = GeoGebra ?\color{red}\text{(GGB) = GeoGebra ?} Dans le plan, si v1,v2,v3\vec{v}_1,\vec{v}_2,\vec{v}_3 sont quelconques, on peut toujours trouver une combinaison linéaire

α1v1+α2v2+α3v3=0,\alpha_1\vec{v}_1+\alpha_2\vec{v}_2+\alpha_3\vec{v}_3 = \vec{0},

dont les coefficient αi\alpha_i ne sont pas tous nuls.

"Dans un espace de dimension n=2n=2, une famille de p=3p=3 vecteurs est forcément liée."

Théorème

Soit {v1,,vp}\{\vec{v}_1,\ldots,\vec{v}_p\} une famille de pp vecteurs de Rn\R^n. Si p>np>n, alors cette famille est liée.

Preuve

Supposons que p>np>n. Considérons l'équatoin vectorielle

α1v1++αpvp=0()systeˋme reˊduit(1010101010010)\alpha_1\vec{v}_1+\ldots+\alpha_p\vec{v}_p = \vec{0} \qquad(*)\\ \text{} \\ \downarrow\text{système réduit}\\ \text{} \\ \newcommand\x{\times} \left( \begin{array}{ccccccccc|c} \color{blue}1& & & & & & & & &0\\ & \color{blue}1 & & & & & & & &0\\ & & \color{blue}1 & \cdot& & & &\huge* & &0\\ & & & & \color{blue}1 & & & & &0\\ & & & & & \color{blue}1 & & & &0\\ & &\text{\huge0} & & & & \ddots & & &\vdots\\ & & & & & & & \color{blue}1& \cdots &0\\ \end{array}\right)

Comme p>np>n, il existe au moins une colonne sans pivot, et donc au moins une variable libre. AInsi, il y a une infinité de solutions distinctes, donc il existe des solutions de ()(*)avec au moins un des αi\alpha_i non nuls. \qquad\square

Remarque : si pnp\leqslant n, on ne sait pas ! (Dépend des cas.)

Par exemple avec $ n = 3, p= 2, $

{(100),(200)}est lieˊe,{(100),(123)}est libre.\begin{Bmatrix} \begin{pmatrix}1\\0\\0\end{pmatrix}, \begin{pmatrix}2\\0\\0\end{pmatrix} \end{Bmatrix} \text{est liée,}\\ \text{} \\ \begin{Bmatrix} \begin{pmatrix}1\\0\\0\end{pmatrix}, \begin{pmatrix}1\\2\\3\end{pmatrix} \end{Bmatrix}\text{est libre.}

Théorème

Dans Rn\R^n, une famille de nn vecteurs {v1,,vn}\{\vec{v}_1,\ldots,\vec{v}_n\} libre engendre tout Rn\R^n.

Preuve

+ tard\color{red}\text{+ tard}