Soit $M$ une matrice antisymétrique de taille $n$. Montrer que si $n$ est impair, $M$ n’est pas inversible. Est-ce encore vrai si $n$ est pair ?
Par définition d’une matrice antisymétrique $\tr{M}=-M$. Donc : \[\det(M)=\det(\tr{M})=\det(-M)=(-1)^n\det(M).\]Si $n$ est impair, on obtient $\det(M)=-\det(M)$. Donc $\det(M)=0$ et $M$ est non inversible.
Si $n$ est pair on obtient $\det(M)=\det(M)$ et on ne peut rien conclure. Pour répondre à la question, donnons un exemple de matrice antisymétrique inversible : $M=\begin{pmatrix}\hphantom{x}0&1 \\-1&0\end{pmatrix}$.
Le résultat est donc faux en général pour les matrices antisymétriques de taille paire.
Soit $M=\begin{pmatrix} 0 & 2 \\ -1 &3 \end{pmatrix}$ et $I_2$ la matrice identité de taille 2.
- Déterminer les deux valeurs de $\lambda\in\C$ telles que $\det(M-\lambda I_2)=0$.
- En déduire que pour chacune de ces valeurs $\lambda_i$, $i=1,2$, il existe un vecteur $v_i$ de $\C^2$ non nul tel que $Mv_i=\lambda_i v_i$.
- Soit $P$ la matrice dont les colonnes sont égales aux deux vecteurs $v_i$ trouvés. Calculer $P^{-1}MP$.
- Interpréter le résultat.
- $\det(M-\lambda I_2)=\begin{vmatrix} -\lambda & 2 \\ -1&3-\lambda\end{vmatrix}=\lambda^2-3\lambda+2=(\lambda-2)(\lambda-1)$. Le déterminant est nul pour $\lambda_1=1$ et $\lambda_2=2$.
- Si $\det(M-\lambda I_2)=0$ cela signifie que $M-\lambda I_2$ est non inversible. Le système $(M-\lambda I_2)v=0$ a alors une infinité de solutions. Il existe en particulier un vecteur $v$ non nul tel que $Mv=\lambda v$.
On peut les trouver explicitement : pour $\lambda_1=1$, on trouve par exemple $v_1=(1,-1)$ et pour $\lambda_2=2$ on trouve pas exemple $v_2=(1,1)$.- Comme la matrice $P$ a pour colonnes $v_1$ et $v_2$, le produit $MP$ a pour colonnes $Mv_1=v_1$ et $Mv_2=2v_2$. Et comme $P^{-1}P=I_2$, les produits $P^{-1}v_1$ et $P^{-1}v_2$ sont les vecteurs de la base canonique. Donc les colonnes de $P^{-1}MP$ sont les vecteurs $Pv_1$ et $2Pv_2$ donc $\begin{pmatrix}1&0\end{pmatrix}$ et $\begin{pmatrix}0&2\end{pmatrix}$. D’où $P^{-1}MP=\begin{pmatrix} 1 & 0 \\ 0 &2 \end{pmatrix}$.
Concrètement, la matrice $P$ associée à nos vecteurs $v_1$ et $v_2$ est $P=\begin{pmatrix} \hphantom{x}1 & 1 \\ -1 &1 \end{pmatrix}$. On peut calculer son inverse et retrouver le résultat ci-dessus.- On reconnaît une formule de changement de base. Si on note $\varphi$ l’endomorphisme dont $M$ est la matrice dans la base canonique, on a trouvé une nouvelle base $(v_1,v_2)$ dans laquelle la matrice de $\varphi$ est diagonale.
- Soient $v_1=(2,1,1), v_2=(1,3,2), v_3=(1,1,1)$ et $v_4=(4,1,1)$. Avec ces 4 vecteurs, on peut former 24 familles de 3 vecteurs : $(v_1,v_2,v_3)$, $(v_1,v_3,v_2)$, $(v_1,v_2,v_4)$, etc.
Quelles familles sont des bases de $\R^3$ ?
Parmi elles, lesquelles forment un repère direct ? - Soient $w_1=(1,-1,1,-1)$, $w_2=(-1,1,1,-1)$, $w_3=(1,1,1,-1)$ et $w_4=(-1,-1,1,a)$. Pour quelles valeurs de $a$ la famille $(w_1,w_2,w_3,w_4)$ est-elle liée ?
- On considère un espace vectoriel de dimension $n$ et une famille de $k$ vecteurs avec $k\lt n$. La famille ne peut pas être une base mais on peut se demander si elle est libre. Il existe encore un critère simple basé sur un calcul de déterminant.
Pour une base $\mathcal B$ donnée on peut associer la matrice de taille $n\times k$ des coefficients des vecteurs de la famille dans la base $\mathcal B$. Si on supprime $n-k$ lignes quelconques de cette matrice on obtient une matrice carrée dont on peut calculer le déterminant. Alors la famille est libre si et seulement si au moins l’un de ces déterminants est non nul.
Démontrer cette équivalence. - Soient $u_1=(1,2,3,4)$, $u_2=(2,0,3,0)$, $u_3=(1,-2,0,3)$ et $u_4=(0,4,3,8)$.
En utilisant le critère précédent, déterminer si les familles $(u_1,u_2)$, $(u_1,u_2,u_3)$ et $(u_1,u_2,u_4)$ sont libres.
- En raisonnant dans la base canonique de $\R^3$, le déterminant de la famille $(v_1,v_2,v_3)$ est égal à\[\begin{vmatrix} 2&1&1 \\1&3&1 \\1&2&1 \end{vmatrix}=1.\]Comme il est non nul, la famille est une base. Comme il est strictement positif, le repère associé est direct. Attention, cette dernière remarque n’est valable que si on a calculé le déterminant dans une base directe.
On en déduit naturellement $\det(v_2,v_1,v_3)=-\det(v_1,v_2,v_3)=-1$. Comme le résultat est négatif, le repère associé est indirect.
De même le déterminant de la famille $(v_1,v_3,v_4)$ dans la base canonique est égal à :\[\begin{vmatrix} 2&1&4 \\1&1&1 \\1&1&1 \end{vmatrix}=0\]et on en déduit que la famille est liée (il y a deux lignes identiques) .
Les 21 autres familles s’étudient de la même manière.- La matrice de la famille dans la base canonique de $\R^4$ est $\begin{pmatrix} \hphantom{x}1&-1&\hphantom{x}1&-1 \\-1&\hphantom{x}1&\hphantom{x}1&-1 \\\hphantom{x}1&\hphantom{x}1&\hphantom{x}0&\hphantom{x}1 \\\hphantom{x}0&-1&-1&\hphantom{x}a \end{pmatrix}$.
Son déterminant est $2-4a$. Il est nul pour $a=\dfrac{1}{2}$ et la famille est donc liée pour cette valeur et elle seule.- Notons $v_1,\ldots ,v_k$ les $k$ vecteurs considérés, notons $C_1, \ldots ,C_k$ les vecteurs colonnes de $\R^n$ formés des coefficients des vecteurs $v_i$ dans la base $\mathcal B$ et notons $A$ la matrice associée à la famille dans cette base et dont les colonnes sont les vecteurs $C_i$.
Supposons la famille liée. Alors il existe des scalaires $\lambda_i\in\R$ tels que $\sum_{i=1}^k\lambda_i v_i=0$. On en déduit $\sum_{i=1}^k\lambda_i C_i=0$. Il existe donc une relation linéaire non triviale entre les colonnes de la matrice associée à la famille. Et cette relation reste évidemment vraie si on supprime des lignes de la matrice. Ainsi toute sous-matrice de taille $k\times k$ de la matrice $A$ a un déterminant nul. Par contraposée on a montré que si au moins un de ces déterminants est non nul, alors la famille est libre.
Supposons maintenant la famille libre. On peut alors la compléter en une base $(v_1,\ldots, v_n)$ de l’espace vectoriel de dimension $n$. La matrice $\tilde A$ associée à cette famille dans la base $\mathcal B$ est obtenue en complétant $A$ avec les vecteurs colonnes associés aux vecteurs $v_i$ ajoutés. En utilisant la définition du déterminant, on peut montrer que le déterminant de $\tilde A$ est une combinaison linéaire de sous-déterminants de taille $k\times k$ de $A$ (on peut le voir en développant $\tilde A$ selon ses dernières colonnes). Comme on a une base, le déterminant de $\tilde A$ est non nul et on en déduit qu’au moins un de ces sous-déterminants est non nul.- La matrice associée à $(u_1,u_2)$ dans la base canonique est $\begin{pmatrix} 1&2 \\2&0 \\3&3 \\4&0\end{pmatrix}$.
Comme le sous-déterminant $\begin{vmatrix} 1&2 \\2&0\end{vmatrix}=2$ est non nul on déduit que la famille est libre.
La matrice associée à $(u_1,u_2,u_3)$ est $\begin{pmatrix} 1&2&1 \\2&0&-2 \\3&3&0 \\4&0&3\end{pmatrix}$. Il y a 6 sous-déterminants :\[\begin{vmatrix}1&2&1 \\2&0&-2 \\3&3&0\end{vmatrix}=0, \begin{vmatrix}1&2&1 \\2&0&-2 \\4&0&3\end{vmatrix}=-28,\begin{vmatrix}1&2&1 \\3&3&0 \\4&0&3\end{vmatrix}=-21,\cdots\]Comme l’un d’eux est non nul, la famille est libre.
Pour la famille $(u_1,u_2,u_4)$, on trouve que les 6 sous-déterminants sont nuls. On en déduit que la famille est liée. En effet $2u_1-u_2-u_4=0$.
Un solide est déformé de la manière suivante : il est compressé dans la direction $x=y=z$ de l’espace et étiré dans le plan d’équation $x+y+z=0$. Cette transformation est décrite par l’application linéaire\[\varphi(x,y,z)=\frac{1}{12}(17x-7y-7z,-7x+17y-7z,-7x-7y+17z).\]
- Calculer le déterminant de $\varphi$.
- Recommencer en utilisant la base $\left((1,1,1);(1,-1,0);(0,1,-1)\right)$.
- Interpréter le résultat.
- La matrice de $\varphi$ dans la base canonique est $\frac{1}{12}\begin{pmatrix}17&-7&-7 \\-7&17&-7 \\-7&-7&17 \end{pmatrix}$. Son déterminant est\[\det(\varphi)=\frac{1}{12^3}\begin{vmatrix}17&-7&-7 \\-7&17&-7 \\-7&-7&17 \end{vmatrix}=1.\]
- Notons $v_1, v_2,v_3$ les vecteurs de la base. On calcule $\varphi(v_1)=\dfrac{1}{4}v_1$, $\varphi(v_2)=2v_2$ et $\varphi(v_3)=2v_3$. La matrice de $\varphi$ dans cette base est donc $\begin{pmatrix}\tfrac{1}{4}&0&0 \\0&2&0 \\0&0&2 \end{pmatrix}$ et son déterminant est bien 1.
- La base proposée est une base adaptée à la transformation étudiée. Cela se traduit par le fait que la matrice de $\varphi$ dans cette base est diagonale. On obtient précisément que le solide est compressé dans la direction de $v_1$ d’un facteur $\dfrac{1}{4}$ et est étiré dans le plan engendré par $v_2$ et $v_3$ d’un facteur 2.
Le fait que le déterminant soit égal à 1 signifie que la transformation préserve le volume du solide.
Soit $E$ un $\R$-espace vectoriel de dimension finie. Supposons qu’il existe un endomorphisme $\varphi$ de $E$ tel que $\varphi\circ\varphi=-\Id$.
Montrer que $E$ est de dimension paire.
Notons $n$ la dimension de $E$.
Alors $\det(-\Id)=(-1)^n\det(\Id)=(-1)^n$ et $\det(\varphi\circ\varphi)=\det(\varphi)^2$. Donc $\det(\varphi)^2=(-1)^n$. Comme ces deux nombres sont réels, on déduit $(-1)^n\geqslant 0$. Donc $n$ est pair.
La rotation de centre $O$ et d’angle $\dfrac{\pi}{2}$ dans le plan est un exemple d’application $\varphi$ telle que $\varphi^2=-\Id$.
Soient $a,b>0$. On considère l’ellipse pleine $\mathcal E$ d’équation $\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}\leqslant 1$.
- Déterminer une application linéaire de $\R^2$ qui envoie le disque unité sur $\mathcal E$.
- En déduire l’aire de $\mathcal E$.
- L’application $\varphi(x,y)=(ax,by)$ convient. En effet, en notant $D$ le disque unité :\[(x,y)\in D \Leftrightarrow x^2+y^2\leqslant 1 \Leftrightarrow \frac{(ax)^2}{a^2}+\frac{(by)^2}{b^2}\leqslant 1 \Leftrightarrow (ax,by)\in\mathcal E.\]Remarque : les 4 applications de la forme $(x,y)\mapsto(\pm ax,\pm by)$ conviennent.
- Utilisons la formule $\mathcal A(\varphi(D))=|\det(\varphi)|\mathcal A(D)$.
La matrice de $\varphi$ dans la base canonique est $\begin{pmatrix} a&0 \\0&b\end{pmatrix}$ et son déterminant et $ab$.
Finalement, on obtient :\[\mathcal A(\mathcal E)=ab \pi.\]Remarque : si $a=b=r$, $\mathcal E$ est un disque de rayon $r$ et son aire est bien $\pi r^2$.
Calculer un déterminant, inverser une matrice ou résoudre un système linéaire sont des problèmes coûteux en calculs. L’objectif de cet exercice est de quantifier ces coûts et de comprendre que la méthode du pivot de Gauss est de ce point de vue une bonne méthode de calcul dès que la matrice du problème est de taille élevée.
- Résoudre le système ci-dessous en utilisant la formule de Cramer et la méthode du pivot de Gauss.\[\left\{\begin{array}{rcl}2x-\hphantom{x}y+\hphantom{x}z&=&1 \\\hphantom{x}x+2y-3z&=&2 \\3x+\hphantom{x}y+2z&=&3\end{array}\right.\]
- Pour l’ordinateur, une multiplication de nombres et bien plus coûteuse en temps qu’une addition. Nous raisonnerons donc sur les multiplications pour estimer grossièrement le coût d’un calcul complexe.
Combien de multiplications nécessite le calcul d’un déterminant $2\times 2$ ou $3\times 3$ ? - Combien de multiplications nécessite le calcul d’un déterminant $n\times n$ si on utilise la définition ?
- On peut calculer un déterminant en utilisant la méthode du pivot de Gauss ; on utilise des combinaisons de lignes afin de faire apparaître des 0 sur la première colonne puis on développe selon cette colonne afin de se ramener à un déterminant de taille inférieure.
Avec cette méthode, combien de multiplications utilise-t-on ?
On montrera que ce nombre est un polynôme en $n$ de degré 3. - En déduire que le coût global de la méthode de Cramer est en $n^4$.
- En reprenant le raisonnement de la question 4, montrer que le coût d’une résolution de système avec la méthode du pivot de Gauss est en $n^3$. Conclure.
- Utilisons la formule de Cramer. La matrice du système est $A=\begin{pmatrix} 2&-1&1 \\ 1&2&-3 \\ 3&1&2 \end{pmatrix}$. En utilisant la règle de Sarrus, on trouve que son déterminant est $20$. Il faut ensuite calculer les déterminants\[\begin{vmatrix}1&-1&\hphantom{x}1 \\2&\hphantom{x}2&-3 \\3&\hphantom{x}1&\hphantom{x}2\end{vmatrix}=16,\begin{vmatrix}2&1&\hphantom{x}1 \\1&2&-3 \\3&3&\hphantom{x}2\end{vmatrix}=12,\begin{vmatrix}2&-1&1 \\1&\hphantom{x}2&2 \\3&\hphantom{x}1&3\end{vmatrix}=0.\]La solution du système est donc $x=\dfrac{16}{20}=\dfrac{4}{5}$, $y=\dfrac{12}{20}=\dfrac{3}{5}$, $z=\dfrac{0}{20}=0$.
- $\begin{vmatrix} a&b \\c&d \end{vmatrix}=ad-bc$ nécessite 2 multiplications et le calcul d’un déterminant $3\times 3$ avec la règle de Sarrus nécessite 12 multiplications.
- De manière générale, un déterminant $n\times n$ est une somme de $n!$ termes, chaque terme étant un produit de $n$ coefficients (nécessitant donc $n-1$ multiplications). Coût total : $(n-1)n!$ multiplications.
- Pour une matrice de taille $n$, une opération du type $L_i\leftarrow L_i-\lambda L_1$ nécessite $n$ multiplications par $\lambda$. On en effectue $n-1$ pour faire apparaître des 0 sur toute une colonne (sauf un coefficient). On développe ensuite selon cette colonne ce qui nécessite une multiplication et un calcul de déterminant de taille $n-1$. On obtient ainsi une formule récursive. Le coût $c_n$ total est $c_n=n(n-1)+1+c_{n-1}$. Si on ne cherche qu’un ordre de grandeur, la formule est de la forme $c_n\approx n^2+c_{n-1}$ et donc le coût total est de l’ordre de $\sum_{k=1}^n k^2$. Ce dernier nombre est lui-même de l’ordre de $n^3$.
Autrement dit, le coût du calcul d’un déterminant est avec la définition $n\times n!$ et avec le pivot de Gauss en $n^3$. C’est nettement meilleur !- On utilise évidemment cette dernière méthode pour calculer les déterminants. La méthode de Cramer nécessite le calcul d’un déterminant de taille $n$ et de $n$ déterminants de taille $n$. Le coût global est donc de l’ordre de $(n+1)\dfrac{n^3}{3}$. C’est en $n^4$.
- Pour résoudre un système, on n’utilise qu’une seule fois la méthode du pivot de Gauss (et non $n+1$ fois). Évaluons son coût grossièrement. Le raisonnement de la question 4 nous permet de dire qu’il faut en gros $n^3$ multiplications pour transformer un système en un système triangulaire. Il faudra encore $n^3$ multiplications pour le transformer en un système diagonal (il en faut en fait moins car la matrice est pleine de 0) puis enfin $n$ multiplications pour arriver à la solution. Il ne faut pas oublier que toutes les opérations effectuées sur la partie gauche du système sont également effectuées sur la partie droite. On peut donc estimer que le coût global est de l’ordre de $(2n^3+n)\times 2$. Autrement dit, le nombre total de multiplications croît avec $n$ en $n^3$. Cela reste très élevé mais c’est nettement meilleur que la méthode de Cramer.
Concrètement, on peut montrer que la méthode du pivot de Gauss est significativement meilleure à partir de $n=4$.