Équations vectorielles

Vecteur de Rn\R^n

On identifie chaque "liste" (x1,x2,,xn)Rn(x_1,x_2,\ldots,x_n)\in\R^n avec un vecteur de Rn\R^n noté

x=(x1x2xn)\vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix}
L3_1.png

Addition vectorielle

Si x=(x1x2xn),y=(y1y2yn),x+y(x1+y1x2+y2xn+yn)\text{Si } \vec{x}= \begin{pmatrix} x_1 \\ x_2 \\ \vdots\\ x_n \end{pmatrix},\vec{y}= \begin{pmatrix} y_1 \\ y_2 \\ \vdots\\ y_n \end{pmatrix},\vec{x}+\vec{y}\coloneqq \begin{pmatrix} x_1 + y_1 \\ x_2 +y_2 \\ \vdots\\ x_n + y_n \end{pmatrix}

Géométriquement, l'addition correspond à la règle du parallélogramme :

L3_2.png

Remarques

  • Le vecteur nul :

    0=(000)\vec{0}= \begin{pmatrix} 0\\ 0\\ \vdots \\ 0\\ \end{pmatrix}
    x,x+0=0+x=x\forall \vec{x}, \vec{x}+\vec{0}=\vec{0}+\vec{x}=\vec{x}
  • Pour tout x\vec{x}, il existe un unique opposé noté x-\vec{x}, tel que

    x+(x)=0\boxed{\vec{x}+(-\vec{x})=\vec{0}}
    Si x=(x1x2xn),x=(x1x2xn)\text{Si } \vec{x}=\begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}, -\vec{x}=\begin{pmatrix} -x_1\\ -x_2\\ \vdots\\ -x_n \end{pmatrix}

    IMAGE 3.3

Multiplication d'un vecteur par un scalaire

Si λR\lambda\in\R est un scalaire (c'est-à-dire un nombre sans dimension), et x\vec{x} un vecteur de Rn\R^n :

x=(x1x2xn)\vec{x}=\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}

La multiplication de x\vec{x} par λ\lambda est un vecteur défini par

λx(λx1λx2λxn)\lambda\vec{x}\coloneqq\begin{pmatrix} \lambda x_1\\ \lambda x_2\\ \vdots\\ \lambda x_n \end{pmatrix}

Géométriquement :

L3_4.png

Propriétés

Pour tout x,y,zRn\vec{x},\vec{y},\vec{z}\in\R^n et tout scalaire λ,μR\lambda,\mu\in\R,

Avec l’addition et la multiplication par un scalaire, on peut faire une arithmeˊtique vectorielle.\begin{aligned} \Rightarrow\quad&\text{Avec l'addition et la multiplication par un scalaire, }\\ &\text{on peut faire une arithmétique vectorielle.} \end{aligned}

Colinéarité

Remarque : il s'agit de la généralisation de la notion de "parallélisme" à nn dimensions.

Définition

Deux vecteurs x\vec{x}, y\vec{y} de Rn\R^n sont colinéaires si l'un peut s'obtenir à partir de l'autre par la multiplication par un scalaire. Autrement dit, il doit exister un λR\lambda\in\R tel que x=λy\vec{x}=\lambda\vec{y} ou y=λx\vec{y}=\lambda\vec{x}.

Exemples

L3_5.png

Remarque : le vecteur nul 0\vec{0} est colinéaire à tous les vecteurs de Rn\R^n, puisque x,0=0x\forall \vec{x},\vec{0}=0\vec{x}.

Combinaisons linéaires

Définition

Soient v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p des vecteurs de Rn\R^n et α1,α2,,αp\alpha_1,\alpha_2,\ldots,\alpha_p des scalaires (αiR,i=1,2,,p)(\alpha_i\in\R,\forall i =1,2,\ldots,p).

Alors α1v1+α2v2++αpvpRn\alpha_1\vec{v}_1+\alpha_2\vec{v}_2+\ldots+\alpha_p\vec{v}_p\in\R^n est une combinaison linéaire des v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p; les α1,α2,,αp\alpha_1,\alpha_2,\ldots,\alpha_p sont ses coefficients.

Combinaison linéaire de deux vecteurs

Partie engendrée par une famille de vecteurs

Définition

Soient v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p des vecteurs de Rn\R^n. La partie de Rn\R^n engendrée par les v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p est l'ensemble des points de Rn\R^n associés à toutes les combinaisons possibles des v1,v2,,vp\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p.

Notation : Vect{v1,v2,,vp}Rn\text{Vect}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\}\sub\R^n, en anglais Span{v1,v2,,vp}\text{Span}\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_p\}.

Exemples

Formulation matricielle d'un système linéaire

(){a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm“systeˋme"eˊquation vectorielle"x1(a11am1)a1+x2(a12am2)a2++xn(a1namn)=(b1bm)an\begin{array}{rl} (*) &\begin{cases} a_{11}x_1+a_{12}x_2+\ldots+a_{1n}x_n &= b_1 \\ a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n &= b_2 \\ \vdots \\ a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n &= b_m \\ \end{cases}\\ \\ & \qquad \text{\textquotedblleft système"}\\ & \qquad \qquad \Updownarrow &\\ & \text{\textquotedblleft équation vectorielle"} \\ \\ & x_1\underbrace{\begin{pmatrix}a_{11}\\ \vdots \\ a_{m1}\end{pmatrix}} _{\vec{a}_1} + x_2\underbrace{\begin{pmatrix}a_{12}\\ \vdots \\ a_{m2}\end{pmatrix}} _{\vec{a}_2} + \ldots + x_n\begin{pmatrix}a_{1n}\\ \vdots \\ a_{mn}\end{pmatrix} = \underbrace{\begin{pmatrix}b_{1}\\ \vdots \\ b_{m}\end{pmatrix}} _{\vec{a}_n} \end{array}

Ces vecteurs(aiRm)(\vec{a_{i}}\in\mathbb{R}^{m}) sont les colonnes de la matrice AA (m×n)(m \times n) associée à ()(*).

Définition

Soit AA une matrice (m×n)(m \times n), A=[a1an]A = [\vec{a}_1\cdots\vec{a}_n], aiRm\vec{a}_i\in\mathbb{R}^{m}, et si

x=(x1xn)Rn,\vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix}\in \mathbb{R}^n,

on définit AxA\vec{x} comme le vecteur de Rm\mathbb{R}^m définit par

Axx1a1++xnan,\boxed{A\vec{x}\coloneqq x_1\vec{a}_1 + \ldots + x_n\vec{a}_n}\text{,{}}

AxA\vec{x} est le produit de AA par x\vec{x}.

Contrainte : A(m×n)A (m \times \textcolor{red}{n}) multiple xRn\vec{x}\in\mathbb{R}^\color{red}n

On a ainsi une fonction : xf(x)Ax\vec{x}\mapsto f(\vec{x})\coloneqq A\vec{x}

Image aˋ mettre\color{red}\text{Image à mettre}

Lemme

La fonction xAx\vec{x} \mapsto A\vec{x} est linéraire, c'est-à-dire :

  1. x,y,A(x+y=Ax+Ay)\forall \vec{x},\vec{y},\, A(\vec{x}+\vec{y} = A\vec{x} + A\vec{y})

  2. xRn,λR,A(λx)=λAx.\forall \vec{x} \in \mathbb{R}^{n}, \, \forall\lambda\in\mathbb{R},\,A(\lambda\vec{x}) = \lambda A\vec{x}.

Preuve de 1.

Si A=[a1an],x=(x1xn),y=(y1yn),A(x+y)=A(x1+y1xn+yn)=deˊf(x1+y1)a1++(xn+yn)an=(x1a1++xnanAx)+(y1a1++ynanAy)\begin{array}{lr}\text{Si }A = [\vec{a_1}\cdots\vec{a}*n], \, \vec{x} = \begin{pmatrix}x_1\\ \vdots \\ x_n \end{pmatrix},\vec{y} =\begin{pmatrix}y_1\\ \vdots \\ y_n \end{pmatrix},&\\ A(\vec{x}+\vec{y}) = A \begin{pmatrix} x_1+y_1 \\ \vdots \\ x_n + y_n \end{pmatrix} \stackrel{\text{déf}}{=}(x_1+y_1)\vec{a}_1 + \ldots + (x_n+y_n)\vec{a}_n &\\= (\underbrace{x_1\vec{a}_1+\ldots+x_n\vec{a}_n}_{A\vec{x}})+ (\underbrace{y_1\vec{a}_1+\ldots+y_n\vec{a}_n}_{A\vec{y}}) \\ &\square\end{array}

Reformulons ()(*) sous forme vectorielle :

 A=[a1an],b=(b1bm),\\\ A = [\vec{a}_1 \cdots \vec{a}_n],\, \vec{b} = \begin{pmatrix}b_1 \\ \vdots \\ b_m\end{pmatrix},

()(*) devient Ax=b()A\vec{x} = \vec{b}\,(**), où xRn\vec{x}\in \mathbb{R}^n et yRm\vec{y}\in\mathbb{R}^m.

Une preuve "compacte" du théorème "00, 11, \infty" : Supposons que ()(**) possède deux solutions distinctes : x\vec{x} et y (x,yRn)\vec{y}\ (\vec{x},\vec{y}\in\mathbb{R}^n)

Ax=bAy=bA\vec{x} = \vec{b}\\ A\vec{y} = \vec{b}

Soit,zx+λ(yxv0) ouˋ λR est quelconque.Alors Az=A(x+λ(yx))=Ax+A(λ(yx))=Axb+λ(AyAx0(Rm))=b\begin{array}{lr}\text{Soit},\vec{z}\coloneqq \vec{x} + \lambda(\overbrace{\vec{y}-\vec{x}}^{\textcolor{blue}{\vec{v}} \not = \vec{0}})\text{ où }\lambda \in \mathbb{R} \text{ est quelconque.}&\\ \begin{array}{rl} \text{Alors } A\vec{z} &= A(\vec{x} + \lambda (\vec{y} - \vec{x}))\\ &= A\vec{x} + A(\lambda(\vec{y}-\vec{x})) \\ &= \underbrace{A\vec{x}}_{\vec{b}} + \lambda(\underbrace{A\vec{y}-A\vec{x}}_{\vec{0}(\in \mathbb{R}^m)})\\ &=\vec{b} \end{array}& \\ &\square\end{array} Image aˋ mettre\color{red}\text{Image à mettre}

Remarque sur "AxA\vec{x}" :

Si A=[a1an],x=(x1xn),Ax=x1a1++xnanse calcule :(a11a12a13a1na21a22a23a2nam1am2am3amn)(x1x2xn)=(a11x1a12x2a1nxna21x1a22x2a2nxnam1x1am2x2amnxn)\begin{aligned}\text{Si \,}A = [\vec{a}_1\cdots\vec{a}_n], \, \vec{x} = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix},\, A\vec{x} = x_1\vec{a}_1 + \ldots + x_n\vec{a}_n \\ \text{se calcule :} \begin{pmatrix} \textcolor{orange}{a_{11}} & \textcolor{blue}{a_{12}} & a_{13} & \cdots & \textcolor{red}{a_{1n}} \\ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\ \vdots & \vdots & \vdots & & \vdots \\ a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} \end{pmatrix}\begin{pmatrix} \textcolor{orange}{x_1} \\ \textcolor{blue}{x_2} \\ \vdots \\ \textcolor{red}{x_n} \end{pmatrix} \\ \text{} \\= \begin{pmatrix} \textcolor{orange}{a_{11}x_1} & \textcolor{blue}{a_{12}x_2} & \cdots & \textcolor{red}{a_{1n}x_n} \\ a_{21}x_1 & a_{22}x_2 & \cdots & a_{2n}x_n \\ \vdots & \vdots & & \vdots \\ a_{m1}x_1 & a_{m2}x_2 & \cdots & a_{mn}x_n \end{pmatrix} \end{aligned}

Conclusion : Ax=b    bA\vec{x}=\vec{b} \iff \vec{b} est une combinaison linéaire des solonnes de A.    bVect{a1,,an}A. \iff \vec{b} \in \text{Vect}\{\vec{a}_1,\ldots,\vec{a}_{n}\}, où les a1,an\vec{a}_1, \ldots\vec{a}_n sont les colonnes de A.A.

Strucutre de l'enemblte des solution de Ax=bA\vec{x} = \vec{b}

Déf :

{Si b=0, le systeˋme Ax=0 est homogeˋne.Si b0, le systeˋme Ax=0 est inhomogeˋne.\begin{cases} \text{Si } \vec{b} = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{homogène}. \\ \text{Si } \vec{b} \not = \vec{0} \text{, le système }A\vec{x} = \vec{0} \text{ est } \textbf{inhomogène}. \end{cases}

Systèmes homogènes

Remarque : Tout système homogène Ax=0(Rm)A\vec{x} = \vec{0} \,(\in \mathbb{R}^m) possède la solution triviale : x=0(Rn)\vec{x} = \vec{0} \, (\in \mathbb{R}^{n})

Intéressant : savoir s'il existe des solutions non-trivales, et décrire leur structure.

Remarque : Dès qu'on a vue solution non-triviale pour Ax=0A\vec{x} = \vec{0}, on en a une infinité. En effet, si v0\vec{v}\not =\vec{0} et si Av=0A\vec{v} = \vec{0}. Alors, pour tout scalaire λR\lambda \in \mathbb{R}, si wλv\vec{w}\coloneqq\lambda\vec{v} , on a que

Aw=A(λv)=λAv=0=λ0=0,A\vec{w} = A(\lambda\vec{v}) = \lambda \underbrace{A\vec{v}}_{=\vec{0}} = \lambda \vec{0} = \vec{0},

donc w\vec{w} est aussi une solution non-triviale de Ax=0A\vec{x} = \vec{0}.

Exemple 1

(354324b18)(x1x2x3)=(000)()Ax0homogeˋneSysteˋme reˊduit:[1043001000000]{x1=43x3x2=0x3 libreEnsemble des solutions de ():{(43x30x3)x3 libre}={λvλR}=Vect{v} ouˋ v=(4301)\begin{array}{ccccl} \begin{pmatrix} 3 & 5 & -4 \\ -3 & -2 & 4 \\ b & 1 & -8 \\ \end{pmatrix}&\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \end{pmatrix}& = &\begin{pmatrix} 0 \\ 0 \\ 0 \\ \end{pmatrix}&(*)\\ \\ A&\vec{x}& & \vec{0} & \leftarrow\text{homogène} \end{array}\\ \\ \text{} \\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{ccc:c} 1 & 0 & -\frac{4}{3} & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = \frac{4}{3}x_3 \\ x_2 = 0 \\ x_3 \text{ libre} \end{cases}\\ \\ \text{Ensemble des solutions de } (*) : \end{array}\\ \text{} \\ \begin{Bmatrix} \left. \begin{pmatrix} \frac{4}{3}x_3\\ 0 \\ x_3 \end{pmatrix}\right\vert x_3 \text{ libre} \end{Bmatrix} = \{\lambda\vec{v}|\lambda \in\R \} = \textcolor{red}{\text{Vect}\{\vec{v}\}} \text{ où }\vec{v} = \begin{pmatrix} \frac{4}{3} \\ 0 \\ 1 \end{pmatrix}

Remarque : Vect{v}\color{red}\text{Vect}\{\vec{v}\} est la droite de R3\R^3 dirigée pas v\vec{v}, passant par l'origine.

Exemple 2

(11111010)(x1x2x3x4)=(00)Systeˋme reˊduit:[1010001000]{x1=x3x2=2x3x4x3 et x4 libresEnsemble des solutions de ():{(x32x3x4x3x4)x3,x4 libres}={λ(1210)+μ(0101)x3,x4 libres}=Vect{v1,v2}\begin{pmatrix} 1 & 1 & 1 & 1\\ 1 & 0 & -1 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}\\ \begin{array}{l} \text{Système réduit:} \left[\begin{array}{cccc:c} 1 & 0 & -1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \end{array}\right] \rightarrow \begin{cases} x_1 = x_3 \\ x_2 = -2x_3-x_4 \\ x_3 \text{ et } x_4 \text{ libres} \end{cases}\\ \text{Ensemble des solutions de } (*) : \\ \text{} \\ \end{array}\\ \begin{array}{rl} &\begin{Bmatrix}\left. \begin{pmatrix} x_3\\ -2x_3-x_4 \\ x_3\\ x_4 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \begin{Bmatrix}\left. \lambda\begin{pmatrix} 1\\-2\\1\\0 \end{pmatrix} + \mu\begin{pmatrix} 0\\-1\\0\\1 \end{pmatrix}\right\vert x_3, x_4\text{ libres} \end{Bmatrix}\\ \text{} \\ = & \color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} \end{array}

Remarque : Vect{v1,v2}\color{red}\text{Vect}\{\vec{v}_1,\vec{v}_2\} est un plan dans R4\R^4 passant par l'origine, engendré par v1\vec{v}_1 et v2\vec{v}_2.

Systèmes inhomogènes Ax=b(0)A\vec{x} = \vec{b} (\not = \vec{0})\color{red}

Théorème

Les solutoins de Ax=bA\vec{x}=\vec{b} peuvent s'écrire x=p+v\vec{x} = \vec{p} + \vec{v}, où

Preuve
Soit p une solution particulieˋre de Ax=b :Soit x une autre solution particulieˋre :Ap=bAx=bA(px)=0Donc px est solution du systeˋme homogeˋne associeˊ ! vpx    x=pv\begin{array}{lr} \begin{array}{l} \text{Soit $\vec{p}$ une solution particulière de $A\vec{x} = \vec{b}$ :}\\ \text{Soit $\vec{x}$ une autre solution particulière :} \\ \text{} \end{array} \begin{array}{rrl} & A\vec{p} &= \vec{b} \\ \textcolor{red}{-}&A\vec{x} &= \vec{b}\\ \hline & A(\vec{p}-\vec{x}) &= \vec{0} \end{array}&\\ \text{Donc }\vec{p}-\vec{x} \text{ est solution du système homogène associé ! }\\ \vec{v}\coloneqq\vec{p}-\vec{x} \implies \vec{x} = \vec{p}-\vec{v}&\\ &\square \end{array}