ThéoriesPropriétés

Contexte matriciel

Propriété

Soient $A,B\in\Mc_n(\K)$ et $\lambda\in\K$.

  1. $\det({}^tA)=\det(A)$
  2. $\det(\lambda A)=\lambda^n\det(A)$
  3. $\det(AB)=\det(A)\det(B)$
  1. Cela découle de la définition en utilisant des propriétés des permutations admises.Il s’agit de démontrer que : \[\sum_{\sigma\in\mathfrak S_n}\varepsilon_{\sigma}a_{\sigma(1)1}\cdots a_{\sigma(n)n}=\sum_{\sigma\in\mathfrak S_n}\varepsilon_{\sigma}a_{1\sigma(1)}\cdots a_{n\sigma(n)}.\]Les produits apparaissant dans ces deux sommes sont les mêmes. Plus précisément, pour chaque permutation $\sigma$, on peut considérer la permutation inverse $\sigma^{-1}$ et on a : \[a_{\sigma(1)1}\cdots a_{\sigma(n)n}=a_{1\sigma^{-1}(1)}\cdots a_{n\sigma^{-1}(n)}.\]Et comme $\sigma$ et $\sigma^{-1}$ ont toujours la même signature, le signe attribué à ces deux termes est le même dans chaque somme.Finalement, on peut en déduire $\det(A)=\det({}^tA)$.
  2. Cela découle encore de la définition . \[\begin{align*}\det(\lambda A)&=\sum_{\sigma\in\mathfrak S_n}\varepsilon_{\sigma}\lambda a_{\sigma(1)1}\cdots \lambda a_{\sigma(n)n} \\&=\lambda^n\sum_{\sigma\in\mathfrak S_n}\varepsilon_{\sigma} a_{\sigma(1)1}\cdots a_{\sigma(n)n} \\&=\lambda^n\det(A).\end{align*}\]
  3. On utilise ici la définition du déterminant d’une famille de vecteurs.
    Soient $A$ et $B$ dans $\Mc_n(\K)$. Notons $C_1,\ldots, C_n$ les colonnes de $B$. Les colonnes de $AB$ sont alors les vecteurs $AC_1,\ldots, AC_n$.
    Regardons l’application $B\mapsto \det(AB)$. On peut la voir comme l’application de $E^n$ vers lui-même $\psi : (C_1,\ldots, C_n)\mapsto \det(AC_1,\ldots, AC_n)$. L’application $V\mapsto AV$ est linéaire (c’est l’endomorphisme de $E$ de matrice $A$). Il est facile d’en déduire que l’application $\psi$ est multilinéaire alternée comme le déterminant. Or on sait qu’une telle application est unique à un coefficient de proportionnalité près.
    Donc $\psi$ est un multiple de l’application $\det$ :\[\exists\;\lambda\in \K,~ \psi=\lambda\det.\]Autrement dit, $\forall B\in\Mc_n(K), \det(AB)=\lambda\det(B)$. En particulier, si $B=I_n$, on obtient $\det(A)=\lambda\det(I_n)=\lambda$.
    Finalement, on a démontré :\[\det(AB)=\det(A)\det(B).\]

On en déduit immédiatement les propriétés suivantes :

Propriété
  1. $\det(AB)=\det(BA)$.
  2. Pour tout $k\in\N$, $\det(A^k)=\det(A)^k$.
  3. Si $P$ est une matrice inversible, $\det(P^{-1}AP)=\det(A)$.

Cette dernière propriété permet de justifier que le déterminant d’un endomorphisme ne dépend pas de la base choisie.

Propriété

Une matrice $A$ est inversible si et seulement si $\det(A)\neq 0$ et alors $\det(A^{-1})=\dfrac{1}{\det(A)}$.

  • Supposons $A$ inversible. Alors $\det(AA^{-1})=\det(I_n)=1$.
    Et d’autre part $\det(AA^{-1})=\det(A)\det(A^{-1})$. Donc $\det(A)\det(A^{-1})=1$.
    On en déduit que $\det(A)\neq 0$ et $\det(A^{-1})=\dfrac{1}{\det(A)}$.
  • Démontrer la réciproque revient à résoudre un système linéaire avec la méthode de Cramer. Nous détaillerons cela dans la dernière partie en définissant une matrice $\com(A)$ appelée comatrice de $A$. Si $\det(A)\neq 0$, nous pourrons définir la matrice $B=\dfrac{1}{\det(A)}{}^t\com(A)$ et montrer que $AB=I_n$. Enfin, nous montrerons que $A$ est inversible, d’inverse $B$.

Contexte vectoriel

Propriété

Soit $\mathcal B$ une base de $E$, $\mathcal F=(v_1,\ldots ,v_n)\in E^n$ et $\lambda\in\K$.

  • Si on multiplie l’un des vecteurs par $\lambda$, le déterminant est multiplié par $\lambda$ (exemple${\det}_{\mathcal B}(\lambda v_1,v_2,\ldots ,v_n)\\\quad=\lambda{\det}_{\mathcal B}(v_1,v_2,\ldots ,v_n)$).
  • Si on échange deux vecteurs, le déterminant change de signe (exemple${\det}_{\mathcal B}(v_2,v_1,v_3,\ldots ,v_n)\\\quad=-{\det}_{\mathcal B}(v_1,v_2,v_3,\ldots ,v_n)$).
  • Le déterminant reste inchangé si on ajoute à un vecteur une combinaison linéaire des autres vecteurs (exemple${\det}_{\mathcal B}(v_1+3 v_2- v_3,v_2,\ldots ,v_n)\\\quad={\det}_{\mathcal B}(v_1,v_2,v_3,\ldots ,v_n)$).
  • La famille $\mathcal F$ est une base de $E$ si et seulement si ${\det}_{\mathcal B}(v_1,\ldots ,v_n)\neq 0$.
    La famille $\mathcal F$ est liée si et seulement si ${\det}_{\mathcal B}(v_1,\ldots ,v_n)=0$
    Ces deux propositions sont évidemment équivalentes.
  • Les trois premiers points sont des conséquences immédiates de la multilinéarité du déterminant.
  • Détaillons le troisième point sur un exemple.
    comme ${\det}_{\mathcal B}$ est linéaire par rapport à la première variable\[{\det}_{\mathcal B}(v_1+3v_2-v_3,v_2,\ldots ,v_n)=\\\quad{\det}_{\mathcal B}(v_1,v_2,\ldots ,v_n)+3{\det}_{\mathcal B}(v_2,v_2,\ldots ,v_n) -{\det}_{\mathcal B}(v_3,v_2,\ldots ,v_n).\]Or, d’après la seconde propriété\[{\det}_{\mathcal B}(v_2,v_2,\ldots ,v_n)=-{\det}_{\mathcal B}(v_2,v_2,\ldots ,v_n)\]en échangeant les deux premiers vecteurs. Donc ${\det}_{\mathcal B}(v_2,v_2,\ldots ,v_n)=0$ et de même ${\det}_{\mathcal B}(v_3,v_2,v_3,\ldots ,v_n)=0$.Finalement il reste\[{\det}_{\mathcal B}(v_1+3 v_2- v_3,v_2,\ldots ,v_n)={\det}_{\mathcal B}(v_1,v_2,v_3,\ldots ,v_n).\]
  • Démontrons le dernier point.
    Supposons que $\mathcal F$ est une base de $E$. On peut donc considérer le déterminant dans cette base. Alors les applications ${\det}_{\mathcal B}$ et ${\det}_{\mathcal F}$ sont deux formes multilinéaires alternées de $E$. Elles sont donc proportionnelles et $\exists \mu\in\K,~ {\det}_{\mathcal F}=\mu{\det}_{\mathcal B}$. En particulier ${\det}_{\mathcal F}(\mathcal F)=\mu{\det}_{\mathcal B}(\mathcal F)$.
    Or par définition ${\det}_{\mathcal F}(\mathcal F)=1$. On en déduit en particulier :\[{\det}_{\mathcal B}(\mathcal F)\neq 0.\]Supposons maintenant que $\mathcal F$ n’est pas une base. Comme elle possède $n$ vecteurs, il s’agit d’une famille liée. Il existe donc des scalaires $\lambda_i\in\K$ non tous nuls tels que $\sum_{i=1}^n\lambda_iv_i=0$. Notons $\lambda_j$ l’un des $\lambda_i$ non nul et quitte à multiplier l’égalité par son inverse, on peut supposer $\lambda_j=1$.Alors, d’après la propriété précédente, le déterminant de la famille $\mathcal F$ est inchangé si on remplace $v_j$ par $v_j+\sum_{i\neq j}\lambda_iv_i=0$.
    Ainsi, en utilisant ensuite la première propriété :\[{\det}_{\mathcal B}(v_1,\ldots,v_j,\ldots,v_n)={\det}_{\mathcal B}(v_1,\ldots,0,\ldots,v_n)=0.\]

Dans $\R^2$, on retrouve la relation de colinéarité de deux vecteurs. $v_1=(x_1,y_1)$ et $v_2=(x_2,y_2)$ sont colinéaires si et seulement si $\det(v_1,v_2)=x_1y_2-y_1x_2=0$.

Contexte des endomorphismes

Propriété

Soient $f$ et $g$ deux endomorphismes de $E$. Alors :

  • $\det(f\circ g)=\det(f)\det(g)$.
  • $f$ est bijectif si et seulement si $\det(f)\neq 0$ et dans ce cas, $\det(f^{-1})=\dfrac{1}{\det(f)}$.

Toutes ces propriétés découlent des propriétés matricielles du déterminant.

Application à la géométrie

En dimension 2 et 3, le déterminant a une interprétation géométrique simple.

Propriété

Le déterminant de 2 vecteurs de $\R^2$ dans la base canonique est égal à l’aire du parallélogramme engendré par ces 2 vecteurs. Son signe dépend du sens direct ou non du repère formé par les vecteurs.

Le déterminant de 3 vecteurs de $\R^3$ dans la base canonique est égal au volume du solide engendré par ces 3 vecteurs. Son signe dépend du sens direct ou non du repère formé par les vecteurs.

Ces propriétés permettent de décrire géométriquement l’action des endomorphismes de $\R^2$ et $\R^3$ :

Propriété

Soit $\varphi$ un endomorphisme de $\R^2$ et soit $K$ une partie de $\R^2$ d’aire finie $\mathcal A(K)$.
Alors l’aire de l’image de $K$ par $\varphi$ est donnée par :\[\mathcal A\bigl(\varphi(K)\bigr)=|\det(\varphi)|\mathcal A(K).\]

De même, soit $\psi$ est un endomorphisme de $\R^3$ et $K’$ une partie de $\R^3$ de volume fini $\mathcal V(K’)$.
Alors le volume de son image est donnée par :\[\mathcal V\bigl(\varphi(K’)\bigr)=|\det(\psi)|\mathcal V(K’).\]

Le signe du déterminant est lié au fait que l’endomorphisme préserve ou non l’orientation.

  • Une rotation dans le plan ou dans l’espace préserve les aires, les volumes et l’orientation. Son déterminant est $+1$.
  • Une symétrie axiale dans le plan ou dans l’espace préserve les aires, les volumes mais pas l’orientation. Son déterminant est $-1$. Il en de même d’une symétrie par rapport à un plan dans l’espace.
  • Une homothétie dans l’espace de rapport $\lambda$ multiplie les distances par $\lambda$ et les volumes par $\lambda^3$. Son déterminant est $\lambda^3$.
  • Une projection dans l’espace aplatit les volumes. Son déterminant est $0$.

Ces propriétés se généralisent en dimension supérieure. Elles sont à l’origine du rôle joué par le déterminant dans les formules de changement de variables pour les intégrales multiples.