ThéoriesDéfinitions

Nous proposons ici plusieurs définitions de la notion de déterminant dans des contextes différents. Les démonstrations nécessaires pour les justifier et leur équivalence sont difficiles et ne seront pas présentées ici.

Ces définitions du déterminant sont difficiles à appréhender. Les propriétés qui en découlent permettent néanmoins d’élaborer des méthodes de calcul raisonnables plus facile à manipuler.

Notation

$\K$ désignera le corps $\R$ ou $\C$ et $E$ sera un $\K$-espace vectoriel de dimension $n$ (non nul).
On note $\Mc_n(\K)$ l’ensemble des matrices carrées de taille $n$.

Déterminant d’une matrice

La formule générale établie par Cramer est la suivante.

Définition

Soit $A=(a_{ij})\in\Mc_n(\K)$. On appelle déterminant de $A$ le nombre\[\det(A)=\sum_{\sigma\in\mathfrak S_n} \varepsilon_{\sigma} a_{1\sigma(1)}a_{2\sigma(2)}\cdots a_{n\sigma(n)},\]où $\mathfrak S_n$ désigne l’ensemble des permutations de $\{1,2,\ldots ,n\}$ et $\varepsilon_{\sigma}=\pm 1$ désigne la signature d’une permutation $\sigma$.

Les notions de permutations et de signature sont définies et étudiées dans l’activité pédagogique. Résumons leurs définitions.

Une permutation de $\{1,2,\ldots ,n\}$ est une bijection de cet ensemble dans lui-même. L’ensemble $\mathfrak{S}_n$ désigne l’ensemble de ces $n!$ permutations. La signature d’une permutation est liée au nombre d’échanges de deux entiers nécessaire pour réaliser la permutation.

Essayons d’expliquer la formule simplement : les termes de la somme sont des produits de $n$ coefficients de la matrice. Plus précisément, ce sont les produits de $n$ coefficients situés sur des lignes et colonnes différentes de la matrice (c’est ce qu’expriment les permutations $\sigma$ de la formule). Il y a $n!$ produits de ce type.
Avant de faire leur somme il faut attribuer un signe à chaque terme. On considère la permutation associée au produit choisi et on détermine le nombre d’échanges de 2 indices permettant d’obtenir cette permutation. Si ce nombre est pair, on attribue un signe $+$ ($\varepsilon_{\sigma}=1$), s’il est impair, on attribue un signe $-$ ($\varepsilon_{\sigma}=-1$).
Il est à noter qu’il y a plusieurs façons de réaliser une permutation donnée avec des échanges successifs mais la parité du nombre d’échanges nécessaires est toujours la même.
On obtient enfin le déterminant en calculant la somme de tous ces termes.

On réalise très vite que cette formule est difficilement utilisable pour des matrices de taille trop grande. Concrètement, elle sert essentiellement à démontrer des résultats théoriques et n’est utilisée en pratique que pour calculer des déterminants de matrices de taille 2 ou 3. Au delà, on utilise les méthodes récursives présentées dans la partie Méthodes de calcul.

Soit $A=\begin{pmatrix} a_{11} & a_{12}\\ a_{21}& a_{22} \end{pmatrix}$. Les seuls produits faisant intervenir deux coefficients de lignes et colonnes différentes sont $a_{11}a_{22}$ et $a_{21}a_{12}$.

  • La permutation associée au premier produit est la bijection $1\mapsto 1, 2\mapsto 2$. Elle ne nécessite aucun échange d’indice et on lui attribue donc le signe $+$.
  • L’autre permutation est $1\mapsto 2, 2\mapsto 1$. Elle correspond à 1 échange d’indices et on lui attribue donc le signe $-$.

Le déterminant de $A$ est donc $\det(A)=a_{11}a_{22}-a_{21}a_{12}$ et on retrouve ainsi l’expression vue en introduction.

Soit $A=\begin{pmatrix} a_{11} & a_{12} & a_{13}\\ a_{21}& a_{22}&a_{23} \\ a_{31}& a_{32}&a_{33}\end{pmatrix}$.
Il y a 6 produits de coefficients situés sur des lignes et colonnes différentes :\[a_{11}a_{22}a_{33},\ a_{11}a_{23}a_{32},\ a_{12}a_{21}a_{33},\ a_{12}a_{23}a_{31},\ a_{13}a_{22}a_{31},\ a_{13}a_{21}a_{32}.\]

  • Le premier produit $a_{11}a_{22}a_{33}$ n’est associé à aucun échange d’indices, on lui attribue le signe $+$.
  • La permutation associée au second produit $a_{11}a_{23}a_{32}$ est simplement l’échange des indices 2 et 3 et on lui attribue donc le signe $-$.
  • De même les permutations associées à $a_{12}a_{21}a_{33}$ et $ a_{13}a_{22}a_{31}$ ne nécessitent qu’un seul échange d’indices et on leur attribue un signe $-$.
  • La permutation associée à $a_{12}a_{23}a_{31}$ est obtenue en échangeant 1 et 2 puis en échangeant 1 et 3. Cela fait deux échanges et on attribue donc un signe $+$.
  • Il en est de même pour le dernier produit.

Finalement\[\det(A)=a_{11}a_{22}a_{33}-a_{11}a_{23}a_{32}-a_{12}a_{21}a_{33}+a_{12}a_{23}a_{31}-a_{13}a_{22}a_{31}+a_{13}a_{21}a_{32}.\]C’est bien l’expression vue dans l’introduction.

Soit la matrice de taille 4 suivante :\[M=\begin{pmatrix} 0 & 0 & 6 & 4\\ 0 & 5 & 3 & 0 \\ 0& 2 & 0 & 7\\ 1 & 0&0&0\end{pmatrix}.\]Les seuls produits non nuls que l’on peut obtenir en prenant un coefficient par ligne et colonne sont $1\times 2\times 3 \times 4$ et $1\times 5\times 6\times 7$. Il s’agit des produits $m_{41}m_{32}m_{23}m_{14}$ et $m_{41}m_{22}m_{13}m_{34}$.

  • La permutation associée au premier nécessite deux échanges d’indices : 1 et 4 puis 2 et 3.
    On lui attribue donc un signe $+$.
  • La permutation associée au second est obtenue avec 2 échanges : 1 et 3 puis 3 et 4.
    On lui attribue aussi un signe $+$.

Le déterminant de $M$ est donc $\det(M)=24+210=234$.

Déterminant d’une famille de vecteurs

Dans l’espace vectoriel $E$ de dimension $n$, on définit le déterminant d’une famille de $n$ vecteurs.

Définition

Une forme $n$-linéaire est une application de $E^n$ vers $\K$ linéaire par rapport à chacune de ses variables.
Elle est alternée si elle change de signe lorsqu’on permute deux de ses variables.

Prenons $n=3$. Soit $\psi$ une forme 3-linéaire alternée sur $E$.
Le caractère multilinéaire de $\psi$ se traduit ainsi : pour $u,v_1,v_2,w\in E$ et $\lambda,\mu\in\K$ on obtient par linéarité par rapport à la seconde variable :\[\psi(u,\lambda v_1+\mu v_2,w)=\lambda\psi(u,v_1,w)+\mu\psi(u,v_2,w).\]Le caractère alterné se traduit ainsi :\[\psi(u,v,w)=-\psi(u,w,v)=\psi(w,u,v).\]

Soit $\psi$ la forme $2$-linéaire alternée sur $\R^2$ :\[\psi\bigl((x_1,y_1),(x_2,y_2)\bigr)=x_1y_2-x_2y_1.\]Cette application est linéaire en $(x_1, y_1)$ et est également linéaire en $(x_2, y_2)$. De plus, si on échange les deux vecteurs, on a :\[\psi\bigl((x_2,y_2),(x_1,y_1)\bigr)=x_2y_1-x_1y_2=-\psi\bigl((x_1,y_1),(x_2,y_2)\bigr).\]On aura reconnu l’expression du déterminant de la matrice $\begin{pmatrix} x_1&x_2\\y_1&y_2\end{pmatrix}$.

Théorème

Soit $\mathcal B$ une base de $E$. On rappelle que $n$ désigne la dimension de $E$.

  • Une forme $n$-linéaire alternée sur $E$ est entièrement définie par sa valeur en $\mathcal B$.
  • Deux formes $n$-linéaires alternées sont proportionnelles : si $\psi_1$ et $\psi_2$ sont des formes $n$-linéaires alternées sur $E$, alors $\exists\lambda\in\K,~\forall v\in E,~\psi_1(v)=\lambda\psi_2(v)$.
  • Expliquons le résultat en dimension $n=2$.
    Soit $(e_1,e_2)$ une base de $E$. Soit $\psi$ une forme $2$-linéaire alternée telle que $\psi(e_1,e_2)=\lambda$. Montrons que l’on peut en déduire la valeur de $\psi$ en tout couple $(v_1,v_2)$ de $E^2$.
    Décomposons les vecteurs d’un tel couple dans la base $(e_1,e_2)$ :\[v_1=a_{11}e_1+a_{21}e_2\quad\text{et}\quad v_2=a_{12}e_1+a_{22}e_2.\]Alors :\[\psi(v_1,v_2)=\psi(a_{11}e_1+a_{21}e_2,a_{12}e_1+a_{22}e_2).\]Par linéarité par rapport à la première variable \[\psi(v_1,v_2)=a_{11}\psi(e_1,a_{12}e_1+a_{22}e_2)+a_{21}\psi(e_2,a_{12}e_1+a_{22}e_2),\]et par linéarité par rapport à la seconde variable\[\psi(v_1,v_2)=a_{11}a_{21}\psi(e_1,e_1)+a_{11}a_{22}\psi(e_1,e_2)+a_{21}a_{12}\psi(e_2,e_1)+a_{21}a_{22}\psi(e_2,e_2).\]Avec le caractère alterné, on a $\psi(e_1,e_1)=-\psi(e_1,-e_1)$, donc $\psi(e_1,e_1)=0$.
    De même, $\psi(e_2,e_2)=0$, et $\psi(e_1,e_2)=-\psi(e_1,e_2)$, donc il reste \[\psi(v_1,v_2)=(a_{11}a_{22}-a_{21}a_{12})\psi(e_1,e_2)=\lambda(a_{11}a_{22}-a_{21}a_{12}).\]Autrement dit, la valeur de $\psi(e_1,e_2)$ détermine complètement la forme alternée $\psi$. Remarquons qu’on retrouve le déterminant de la matrice $\begin{pmatrix} a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}$ dans la dernière expression.
    Cela se généralise en dimension supérieure.
  • La seconde propriété découle directement de la première : le rapport de proportionnalité est directement lié à la valeur de $\lambda$.
Définition

Soit $\mathcal B=(e_1,\ldots ,e_n)$ une base de $E$.
Le déterminant dans la base $\mathcal B$, noté ${\det}_{\mathcal B}$, est l’unique forme $n$-linéaire alternée dont l’image de la base $\mathcal B$ est $1$ :\[{\det}_{\mathcal B}(\mathcal B)=1.\]

Les deux définitions du déterminant présentées ci-dessus sont reliées par le théorème suivant :

ThéorèmeLien entre le déterminant d'une matrice et d'une famille de vecteurs
  • Soient $(v_1,\ldots ,v_n)\in E^n$ et $\mathcal B$ une base de $E$.
    Notons $a_{1j},\ldots ,a_{nj}$ les coordonnées de $v_j$ dans la base $\mathcal B$.
    En définissant la matrice $A=(a_{ij})\in\Mc_n(\K)$, on a :\[{\det}_{\mathcal B}(v_1,\ldots ,v_n)=\det(A).\]
  • Inversement, soit $M\in\Mc_n(\K)$.
    Notons $C_1,\ldots ,C_n$ les vecteurs colonnes de $M$ et $\mathcal B_0$ la base canonique de $\K^n$. Alors :\[\det(M)={\det}_{\mathcal B_0}(C_1,\ldots ,C_n).\]

Soient $\mathcal B_0=(e_1,e_2,e_3)$ la base canonique de $\R^3$, et $v_1=(1,2,3), v_2=(1,6,4)$ et $v_3=(2,0,7)$, 3 vecteurs de $\R^3$.
Calculer le déterminant de la famille $(v_1,v_2,v_3)$ dans cette base.

On peut pour cela décomposer les vecteurs dans la base puis utiliser la multilinéarité du déterminant :\[\begin{align*}{\det}_{\mathcal B_0}(v_1,v_2,v_3)&={\det}_{\mathcal B_0}(e_1+2e_2+3e_3,e_1+6e_2+4e_3,2e_1+7e_3) \\&={\det}_{\mathcal B_0}(e_1,e_1+6e_2+4e_3,2e_1+7e_3) \\&\quad+2{\det}_{\mathcal B_0}(e_2,e_1+6e_2+4e_3,2e_1+7e_3) \\&\quad+3{\det}_{\mathcal B_0}(e_3,e_1+6e_2+4e_3,2e_1+7e_3) \\&=\cdots\end{align*}\]Le calcul aboutit ici à :\[{\det}_{\mathcal B_0}(v_1,v_2,v_3)=(1\times 6\times 7+2\times 4\times 2-2\times 1\times 7-3\times 6\times 2){\det}_{\mathcal B_0}(e_1,e_2,e_3).\]Comme ${\det}_{\mathcal B_0}(e_1,e_2,e_3)=1$ par définition, on en déduit ${\det}_{\mathcal B_0}(v_1,v_2,v_3)=8$.

Il est plus facile de calculer ce déterminant matriciellement. La matrice $A$ associée à la famille $(v_1,v_2,v_3)$ dans la base canonique est \[A=\begin{pmatrix}1&1&2 \\2&6&0 \\3&4&7\end{pmatrix}.\]Son déterminant est :\[\begin{align*}{\det}_{\mathcal B_0}(v_1,v_2,v_3)&=\det(A) \\&=1 \times 6 \times 7+2 \times 4 \times 2-2 \times 1 \times 7-3 \times 6 \times 2 \\&=8.\end{align*}\]

De manière générale, on calcule le déterminant d’une famille de vecteurs en calculant plutôt le déterminant de la matrice associée.

Déterminant d’un endomorphisme

Définition

Soient $E$ un $\K$ espace vectoriel de dimension $n$ et $\varphi$ un endomorphisme de $E$C’est à dire une application linéaire de $E$ vers $E$..
Soient $\mathcal B$ une base de $E$ et $M_{\mathcal B}$ la matrice de $\varphi$ dans la base $\mathcal B$.

On appelle déterminant de $\varphi$ le déterminant de cette matrice : $\det(\varphi)=\det(M_{\mathcal B})$.

Sa valeur est indépendante de la base $\mathcal B$ choisie !

Soit $\varphi$ l’endomorphisme de $\R^2$ défini par $\varphi(x,y)=(2x+3y,-x+5y)$.

Considérons la base canonique $\mathcal B_0$ de $\R^2$.
Comme $\varphi(1,0)=(2,-1)$ et $\varphi(0,1)=(3,5)$, la matrice de $\varphi$ dans cette base est $\begin{pmatrix}2&3\\-1&5\end{pmatrix}$.
Le déterminant de $\varphi$ est donc\[\det(\varphi)=2\times 5-(-1)\times 3=13.\]

Considérons maintenant la base $\mathcal B_1$ formée des vecteurs $(1,1)$ et $(4,1)$.
Comme $\varphi(1,1)=(5,4)=\frac{11}{3}(1,1)+\frac{1}{3}(4,1)$ et $\varphi(4,1)=(11,1)=-\frac{7}{3}(1,1)+\frac{10}{3}(4,1)$, la matrice de $\varphi$ dans cette base est\[\begin{pmatrix}\frac{11}{3}&-\frac{7}{3}\\ \frac{1}{3}&\hphantom{-}\frac{10}{3}\end{pmatrix}.\]Le déterminant de $\varphi$ est donc\[\det(\varphi)=\frac{11}{3}\times \frac{10}{3}-\frac{1}{3}\times \left(-\frac{7}{3}\right)=\frac{117}{9}=13.\]On retrouve bien la même valeur dans les deux cas.