Énoncé de l’exercice n°1 :

Soit E un \mathbb{K}-espace vectoriel de dimension finie.

Soient p_1, \dots, p_n des projecteurs de E, tels que \sum_{j=1}^n p_j = \mathrm{Id}_E.

1. Montrer que E = \bigoplus_{i=1}^n \mathrm{Im}(p_i).

2. Démontrer que pour tous indices distincts i et j, on a p_i p_j = 0.

Indication :

1. Utiliser les dimensions et le théorème concernant le rang d’un projecteur.
2. Utiliser des vecteurs.

Corrigé de l’exercice :

1.
L’égalité \mathrm{Id}_E = \sum_{j=1}^n p_j implique : \forall x \in E, \ x = \sum_{j=1}^n p_j(x) \in \sum_{i=1}^n \mathrm{Im}(p_i) donc E \subset \sum_{i=1}^n \mathrm{Im}(p_i) donc \dim(E) \leq \dim \left( \sum_{i=1}^n \mathrm{Im}(p_i) \right).

La trace d’un projecteur est égale à son rang. Ainsi :

    \[\dim(E) = \mathrm{tr}(\mathrm{Id}_E) =\mathrm{tr}( \sum_{j=1}^n p_j) = \sum_{j=1}^n \mathrm{tr}(p_j)\]

    \[= \sum_{j=1}^n \mathrm{rg}(p_j) = \sum_{j=1}^n \dim(\mathrm{Im}(p_j)). \geq \dim \left( \sum_{i=1}^n \mathrm{Im}(p_i) \right)\]

On a donc les inégalités dans les deux sens donc les égalités :

    \[\dim(E)  = \dim \left( \sum_{i=1}^n \mathrm{Im}(p_i) \right) = \sum_{i=1}^n \dim(\mathrm{Im}(p_i))\]

Donc, E = \bigoplus_{i=1}^n \mathrm{Im}(p_i).

2.
Soit j \in \{1, \dots, n\}. Pour tout y \in E, on a :

    \[y = \sum_{i=1}^n p_i(y) = p_j(y) + \sum_{i \neq j} p_i(y).\]

En particulier : \forall x \in E, \ p_j(x) = p_j^2(x) + \sum_{i \neq j} (p_i p_j)(x).

Ce qui donne :

    \[\forall x \in E, \ \sum_{i \neq j} (p_i p_j)(x) = 0 .\]

Cependant, la somme des \mathrm{Im}(p_i) est directe, et chaque (p_i p_j)(x) appartient à \mathrm{Im}(p_i)
.

Ceci implique donc : \forall x \in E, \ \forall i \neq j, \ (p_i p_j)(x) = 0.

Ainsi, pour i \neq j, on a p_i p_j = 0.


Énoncé de l’exercice n°2 :

On considère M, N, P, Q appartenant à \mathcal{M}_n(\mathbb{K}).

1. Supposons Q inversible. Démontrer que :

    \[\det \begin{pmatrix} M & N \\ P & Q \end{pmatrix} = \det(MQ - NQ^{-1}PQ).\]

2. Supposons que P et Q commutent. Démontrer que :

    \[\det \begin{pmatrix} M & N \\ P & Q \end{pmatrix} = \det(MQ - NP).\]

Indication :

1. Utiliser un produit matriciel par blocs, des matrices triangulaires par blocs dont le déterminant est facile à calculer.
2. Se ramener au cas Q inversible par densité.

Corrigé de l’exercice :

1. Posons R = MQ - NQ^{-1}PQ.

L’idée est de construire une matrice \begin{pmatrix} M' & N' \\ P' & Q' \end{pmatrix} telle que :

    \[\begin{pmatrix} M & N \\ P & Q \end{pmatrix} \begin{pmatrix} M' & N' \\ P' & Q' \end{pmatrix} = \begin{pmatrix} R & 0_n \\ 0_n & I_n \end{pmatrix}.\]

On cherche donc M', N', P', Q' tels que :

    \[\begin{aligned} & (1) \ M M' + N P' = MQ - NQ^{-1}PQ, \\ & (2) \ P M' + Q P' = 0_n, \\ & (3) \ M N' + N Q' = 0_n, \\ & (4) \ P N' + Q Q' = I_n. \end{aligned}\]

Par identification dans (1), essayons M' = Q et P' = -Q^{-1}PQ.

Il reste à choisir N' = 0_n et Q' = Q^{-1} pour satisfaire (3) et (4).

On a donc :

    \[\begin{pmatrix} M & N \\ P & Q \end{pmatrix} \begin{pmatrix} Q & 0_n \\ -Q^{-1}PQ & Q^{-1} \end{pmatrix} = \begin{pmatrix} MQ - NQ^{-1}PQ & 0_n \\ 0_n & I_n \end{pmatrix}.\]

En prenant le déterminant, on obtient :

    \[\det \begin{pmatrix} M & N \\ P & Q \end{pmatrix} = \det(MQ - NQ^{-1}PQ).\]

2. Supposons maintenant que P et Q commutent.

Si Q est inversible, le résultat précédent devient simplement :

    \[\det \begin{pmatrix} M & N \\ P & Q \end{pmatrix} = \det(MQ - NP).\]

Supposons maintenant que Q ne soit pas inversible.

Considérons la fonction \varphi : z \mapsto \det(Q + zI_n).

Cette fonction est un polynôme unitaire de degré n, qui n’a donc qu’un nombre fini de racines.

Pour un k suffisamment grand, posons Q_k = Q + \frac{1}{k} I_n, qui devient inversible.

Dans ces conditions, Q_k commute encore avec P.

On a alors :

    \[\det \begin{pmatrix} M & N \\ P & Q_k \end{pmatrix} = \det(MQ_k - NP).\]

L’application déterminant est continue, donc en passant à la limite, il vient :

    \[\det \begin{pmatrix} M & N \\ P & Q \end{pmatrix} = \det(MQ - NP).\]


Énoncé de l’exercice n°3 :

Calculer le rang de la matrice

    \[A =  \begin{pmatrix} a^2 & a & 2 & 2a \\ a & a^2 & 2a & 2 \\ 2 & 2a & a^2 & a \\ 2a & 2 & a & a^2 \end{pmatrix}\]

Indication :

Calculer le déterminant de la matrice, le factoriser.
Traiter les cas remarquables.

Corrigé de l’exercice :

Étape 1 : Calcul du déterminant de A

Pour commencer, appliquons l’opération L_1 \gets L_1 + L_2 + L_3 + L_4.

On factorise ensuite par a^2 + 3a + 2 = (a + 1)(a + 2) dans L_1.

On effectue les soustractions en cascade C_4 \gets C_4 - C_3, C_3 \gets C_3 - C_2, et C_2 \gets C_2 - C_1.

    \[\det(A) = (a + 1)(a + 2) \begin{vmatrix} 1 & 1 & 1 & 1 \\ a & a^2 & 2a & 2 \\ 2 & 2a & a^2 & a \\ 2a & 2 & a & a^2 \end{vmatrix} = (a + 1)(a + 2) \begin{vmatrix} 1 & 0 & 0 & 0 \\ a & a(a - 1) & a(2 - a) & 2(1 - a) \\ 2 & 2(a - 1) & a(a - 2) & a(1 - a) \\ 2a & 2(1 - a) & a - 2 & a(a - 1) \end{vmatrix}.\]

On développe par rapport à L_1, puis on factorise suivant les colonnes :

    \[\det(A) = (a + 1)(a + 2)(a - 1)^2(a - 2) \begin{vmatrix} a & -a & -2 \\ 2 & a & -a \\ -2 & 1 & a \end{vmatrix}.\]

Pour calculer le déterminant 3 \times 3 , on ajoute L_3 à L_2 puis on développe suivant L_2 :

    \[\begin{vmatrix} a & -a & -2 \\ 2 & a & -a \\ -2 & 1 & a \end{vmatrix} = \begin{vmatrix} a & -a & -2 \\ 0 & a + 1 & 0 \\ -2 & 1 & a \end{vmatrix}.\]

    \[= (a + 1) \begin{vmatrix} a & -2 \\ -2 & a \end{vmatrix} = (a + 1)(a - 2)(a + 2).\]

On obtient donc :

    \[\det(A) = (a + 1)^2(a + 2)^2(a - 1)^2(a - 2)^2.\]

Étape 2 : Calculons le rang de A.

Si a \notin \{-2, -1, 1, 2\}, alors \det(A) \neq 0, donc rg(A) = 4.

Si a = 1, alors L_2 = L_1, L_4 = L_3, L_1 et L_3 sont non colinéaires, donc rg(A) = 2.

Si a = -1, alors L_2 = -L_1 et L_4 = -L_3 , L_1 et L_3 sont non colinéaires, donc rg(A)  = 2.

Si a = 2, alors L_4 = L_1, L_3 = L_2 , L_1 et L_3 sont non colinéaires, donc rg(A)  = 2.

Si a = -2, alors L_4 = -L_1, L_3 = -L_2 , L_1 et L_3 sont non colinéaires, donc rg(A)  = 2.


Énoncé de l’exercice n°4 :

Soit

    \[A =  \begin{pmatrix} 1 & 1 & 1 & 1 \\ 1 & 1 & -1 & -1 \\ 1 & -1 & 1 & -1 \\ 1 & -1 & -1 & 1 \end{pmatrix}.\]

Calculer A^2, A^3 puis démontrer que A est inversible et calculer A^{-1}.

Indication :

Essayer de démontrer que A^3 s’exprime avec A et I.

Corrigé de l’exercice :

    \[A^2 = \begin{pmatrix} 4 & 0 & 0 & -2 \\ 0 & 4 & 0 & 2 \\ 0 & 0 & 4 & 2 \\ -2 & 2 & 2 & 4 \end{pmatrix}, \quad A^3 = \begin{pmatrix} 2 & 6 & 6 & 6 \\ 6 & 2 & -6 & -6 \\ 6 & -6 & 2 & -6 \\ 6 & -6 & -6 & -10 \end{pmatrix}.\]

On remarque que A^3 = 6A - 4I, donc A(A^2 - 6I) = 4I, donc A(\frac{1}{4}(A^2 - 6I)) = I.

Ceci démontre que A est inversible et que :

    \[A^{-1} = \frac{1}{4}(A^2 - 6I) = \frac{1}{2} \begin{pmatrix} 1 & 0 & 0 & 1 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 1 & -1 \\ 1 & -1 & -1 & 1 \end{pmatrix}.\]


Énoncé de l’exercice n°5 :

Soit u un endomorphisme de \mathbb{K}[X] défini par : \forall P \in \mathbb{K}[X], \ u(P) = P'.

Démontrer que le seul polynôme annulateur de u est le polynôme nul.

Indication :

Utiliser les polynômes de la base canonique de \mathbb{K}[X].

Corrigé de l’exercice :

Soit Q = \sum_{k \geq 0} a_k X^k. Pour tout P \in \mathbb{K}[X], on a :

    \[(Q(u))(P) = \sum_{k \geq 0} a_k u^k(P) = \sum_{k \geq 0} a_k P^{(k)}.\]

Si Q(u) = 0 dans \mathcal{L}(\mathbb{K}[X]), alors on a :

    \[\quad \forall P \in \mathbb{K}[X], \ \sum_{k \geq 0} a_k P^{(k)}(0) = 0.\]

Prenons P = X^m. Dans ce cas, la formule précédente donne m! \cdot a_m = 0.

Donc, a_m = 0 pour tout m \geq 0. Donc Q = 0.


Énoncé de l’exercice n°6 :

Soit u un endomorphisme de \mathbb{K}[X] défini par :
\forall P \in \mathbb{K}[X], \ u(P) = X P(X)

Démontrer que le seul polynôme annulateur de u est le polynôme nul.

Indication :

Utiliser le polynôme constant égal à 1.

Corrigé de l’exercice :

Soit Q = \sum_{k \geq 0} a_k X^k, pour tout P \in \mathbb{K}[X] :

    \[(Q(u))(P) = \sum_{k \geq 0} a_k u^k(P) = \sum_{k \geq 0} a_k X^k P = QP.\]

Si Q(u) = 0 dans \mathbb{K}[X], alors (Q(v))(1) = 0 donc Q = 0.


Énoncé de l’exercice n°7 :

Soit u un endomorphisme de \mathbb{K}[X] défini par :
\forall P \in \mathbb{K}[X], \ u(P) = P(X+1)

Démontrer que le seul polynôme annulateur de u est le polynôme nul.

Indication :

Utiliser l’interpolation polynômiale.

Corrigé de l’exercice :

Soit Q = \sum_{k \geq 0} a_k X^k, pour tout P \in \mathbb{K}[X] :

    \[(Q(u))(P) = \sum_{k \geq 0} a_k u^k(P) = \sum_{k \geq 0} a_k P(X + k).\]

Si Q(u) = 0 dans \mathcal{L}(\mathbb{K}[X]), alors en particulier :

    \[\quad \forall P \in \mathbb{K}[X], \ \sum_{k \geq 0} a_k P(k) = 0.\]

Prenons m \in [[0, n]].

Par théorème d’interpolation (par exemple Lagrange), on peut choisir P tel que P(k) = 0 si k \in [[0, n]] \setminus \{m\} et P(m) = 1.

Avec ce choix de P, l’égalité précédente devient a_m = 0, pour tout m \in [[0, n]].

Le seul polynôme annulant u est donc le polynôme nul.


Énoncé de l’exercice n°8 :

Soit E un \mathbb{K}-espace vectoriel.

1. On considère F_1 et F_2, deux sous-espaces de E, tels que E = F_1 + F_2.
Soit G_2 un sous-espace supplémentaire de F_1 \cap F_2 dans F_2. Démontrer que E = F_1 \oplus G_2.

2. Soit une collection F_1, \ldots, F_p de sous-espaces de E, telle que E = F_1 + \cdots + F_p.
Prouver qu’il existe des sous-espaces G_2, \ldots, G_p, tels que G_j \subseteq F_j, et
E = F_1 \oplus G_2 \oplus \cdots \oplus G_p.

Indication :

1. Utiliser des éléments, utiliser que G_2 \subset F_2.
2. Se ramener au résultat de la question 1.

Corrigé de l’exercice :

1. Chaque x \in E peut s’écrire comme x = x_1 + x_2, avec x_1 \in F_1 et x_2 \in F_2.
Par hypothèse, F_2 = (F_1 \cap F_2) \oplus G_2.
Il est alors possible d’écrire x_2 = y + x_2', avec y \in F_1 \cap F_2 et x_2' \in G_2.
En particulier, si y \in F_1, alors x = x_1 + (y + x_2') = (x_1 + y) + x_2', ce qui montre que x \in F_1 + G_2.

Ainsi, on a E = F_1 + G_2. Il reste à montrer que F_1 et G_2 forment une somme directe.

Si x appartient à F_1 \cap G_2, alors x \in F_1 et x \in G_2.
Donc x \in F_1 \cap F_2 et x \in G_2, or ces deux sous-espaces sont en somme directe.

On en conclut que x = 0. Par conséquent, E = F_1 \oplus G_2.

2. Procédons par récurrence sur p \geq 2.

D’après la première étape, la propriété est vraie pour p = 2 . En effet, G_2 est un sous-espace supplémentaire de F_1 \cap F_2 dans F_2.

Supposons que la propriété soit vérifiée pour p - 1 sous-espaces, avec p \geq 3.

Considérons p sous-espaces F_1, F_2, \ldots, F_p de E.

Définissons E' = F_1 + F_2 + \cdots + F_{p-1}. On a donc E = E' + F_p.

D’après la première étape, il existe un sous-espace G_p \subseteq F_p tel que E = E' \oplus G_p.

Par hypothèse de récurrence appliquée à F_1, F_2, \ldots, F_{p-1} et E', il existe des sous-espaces G_2, \ldots, G_{p-1} avec G_j \subseteq F_j, tels que
E' = F_1 \oplus G_2 \oplus \cdots \oplus G_{p-1}.

En combinant, on obtient E = E' \oplus G_p = F_1 \oplus G_2 \oplus \cdots \oplus G_p.

Ceci conclut la démonstration par récurrence et établit la propriété pour tout p \geq 2.


Énoncé de l’exercice n°9 :

Indication :
Corrigé de l’exercice :