Exercice n° 1
Démontrer une inégalité portant sur un produit d’images par un polynôme réel à coefficients positifs
Filières : PTSI, PCSI, MPSI, MP2I
Démontrer que :
$$ \left( P(\sqrt{xy}) \right)^2 \leq P(x) P(y). $$
En utilisant l’inégalité de Cauchy-Schwarz, démontrer que :
$$ \left( P(\sqrt{xy}) \right)^2 \leq P(x) P(y). $$
On souhaite démontrer que :
$$ \left( P(\sqrt{xy}) \right)^2 \leq P(x) P(y). $$
Démontrer que l’inégalité est vrai pour un polynôme nul.
Soit $P$ un polynôme non nul, soit $n\in \mathbb{N}$ Le degré de $P$.
Il existe des réels positifs $a_k$ avec $k\in \mathbb{N}$ tels que :
$$P = a_0 + a_1 X + \dots + a_n X^n = \sum_{k=0}^{n} a_k X^k$$
Démontrer que :
$$\left( P(\sqrt{x y}) \right)^2= \left( \sum_{k=0}^{n} \sqrt{a_k x^k} \sqrt{a_k y^k} \right)^2$$
Utiliser l’inégalité de Cauchy-Schwarz.
Terminer la démonstration de l’inégalité.
Soit $P$ un polynôme non nul, soit $n\in \mathbb{N}$ Le degré de $P$.
Il existe des réels positifs $a_k$ avec $k\in \mathbb{N}$ tels que :
$$P = a_0 + a_1 X + \dots + a_n X^n = \sum_{k=0}^{n} a_k X^k$$
$$\left( P(\sqrt{x y}) \right)^2 = \left( \sum_{k=0}^{n} a_k (\sqrt{x y})^k \right)^2$$
$$= \left( \sum_{k=0}^{n} \sqrt{a_k x^k} \sqrt{a_k y^k} \right)^2$$
On utilise l’inégalité de Cauchy-Schwarz :
$$\left( P(\sqrt{x y}) \right)^2 \leq \sum_{k=0}^{n} \left( \sqrt{a_k x^k} \right)^2 \sum_{k=0}^{n} \left( \sqrt{a_k y^k} \right)^2$$
$$= \sum_{k=0}^{n} a_k x^k \sum_{k=0}^{n} a_k y^k$$
$$= P(x) P(y)$$
Conclusion :
$$\left( P(\sqrt{x y}) \right)^2 \leq P(x) P(y)$$
Exercice n° 2
Démontrer une inégalité portant sur les éléments d’une matrice orthogonale
Filières : PTSI, PCSI, MPSI, MP2I
Démontrer que :
$$ \sum_{1 \leq i,j \leq n} |a_{ij}| \leq n\sqrt{n}. $$
En utilisant l’inégalité de Cauchy-Schwarz, démontrer que :
$$ \sum_{1 \leq i,j \leq n} |a_{ij}| \leq n\sqrt{n}. $$
$$\sum_{1 \leq i,j \leq n} |a_{ij}| \times 1 \leq \sqrt{\sum_{1 \leq i,j \leq n} |a_{ij}|^2} \sqrt{\sum_{1 \leq i,j \leq n} 1^2}$$
$$= \sqrt{\sum_{1 \leq i,j \leq n} a_{ij}^2} \sqrt{\sum_{1 \leq i,j \leq n} 1}$$
$$= \sqrt{\| A \|_2^2} \sqrt{n \times n}$$
$$= \sqrt{\operatorname{tr}(A^T A)} \sqrt{n^2}$$
$$= \sqrt{\operatorname{tr}(I_n)} |n|$$
$$= \sqrt{n} n$$
$$= n \sqrt{n}$$
Conclusion :
$$\sum_{1 \leq i,j \leq n} |a_{ij}| \leq n \sqrt{n}$$
Exercice n° 3
Déterminer l’intersection de l’ensemble des matrices orthogonales réelles et de l’ensemble des matrices triangulaires supérieures réelles
Filières : PTSI, PCSI, MPSI, MP2I
Traiter le cas $n=3$.
Généraliser le raisonnement.
Conclure.
On traiter le cas $n=3$.
Soit $M$ une matrice réelle orthogonale et triangulaire supérieure d’ordre 3.
$$M = \begin{pmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{pmatrix} \in O_3(\mathbb{R}) \cap T_{3,s}(\mathbb{R})$$
Calculer la norme au carré de la première colonne.
Calculer la norme au carré de la première ligne.
En déduire un système.
Résoudre ce système.
En déduire une expression plus simple de la matrice $M$.
Poursuivre la démarche aux autres colonnes et lignes.
Traiter la réciproque.
Généraliser le raisonnement.
Conclure.
Soit $M$ une matrice réelle orthogonale et triangulaire supérieure d’ordre 3.
$$M = \begin{pmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{pmatrix} \in O_3(\mathbb{R}) \cap T_{3,s}(\mathbb{R})$$
La première colonne a une norme au carré égale à 1, il en est de même pour la première ligne, on peut donc écrire :
$$\begin{cases}
a^2 = 1 \\
a^2 + b^2 + c^2 = 1
\end{cases}
\iff
\begin{cases}
a = \pm 1 \\
b^2 + c^2 = 0
\end{cases}
\iff
\begin{cases}
a = \pm 1 \\
b = 0 \\
c = 0
\end{cases}$$
Pour rappel : si une somme de termes positifs est nulle alors chaque terme est nul.
On obtient donc une expression plus simple de la matrice $M$ :
$$M = \begin{pmatrix} \pm 1 & 0 & 0 \\ 0 & d & e \\ 0 & 0 & f \end{pmatrix}$$
La deuxième colonne a une norme au carré égale à 1, il en est de même pour la deuxième ligne, on peut donc écrire :
$$\begin{cases}
d^2 = 1 \\
d^2 + e^2 = 1
\end{cases}
\iff
\begin{cases}
d = \pm 1 \\
e^2 = 0
\end{cases}
\iff
\begin{cases}
d = \pm 1 \\
e = 0
\end{cases}$$
L’expression de la matrice $M$ se simplifie davantage :
$$M = \begin{pmatrix} \pm 1 & 0 & 0 \\ 0 & \pm 1 & 0 \\ 0 & 0 & f \end{pmatrix}$$
La dernière ligne et la dernière colonne ont la même norme au carré qui vaut 1 :
$$f^2 = 1 \iff f = \pm 1$$
On obtient donc une expression très simple de la matrice $M$ :
$$M = \begin{pmatrix} \pm 1 & 0 & 0 \\ 0 & \pm 1 & 0 \\ 0 & 0 & \pm 1 \end{pmatrix}$$
Réciproquement, une matrice telle que définie ci-dessus, est orthogonale et triangulaire supérieure.
Le précédent raisonnement se généralise pour un entier $n$ non nul quelconque.
Conclusion : l’intersection de l’ensemble des matrices orthogonales réelles et de l’ensemble des matrices triangulaires supérieures réelles est l’ensemble des matrices diagonales dont les éléments sont égaux à $1$ ou $-1$.
Exercice n° 4
Somme de sous-espaces vectoriels, inclusion, sous-espace vectoriel orthogonal
Filières : PTSI, PCSI, MPSI, MP2I
$$ F \subset G^\perp \quad \text{et} \quad F + G = E. $$
Démontrer que :
$$ G^\perp = F \quad \text{et} \quad F^\perp = G. $$
$$ F \subset G^\perp \quad \text{et} \quad F + G = E. $$
En utilisant des éléments, démontrer que :
$$ G^\perp = F \quad \text{et} \quad F^\perp = G. $$
$$ F \subset G^\perp \quad \text{et} \quad F + G = E. $$
On souhaite démontrer que :
$$ G^\perp = F \quad \text{et} \quad F^\perp = G. $$
Soit $x \in G^\perp$.
Démontrer que l’on peut décomposer le vecteur $x$ ainsi :
$$x = x_1 + x_2, \quad x_1 \in G^\perp, \quad x_2 \in G$$
Soit $y \in G$ quelconque, qui ne dépend pas des vecteurs précédemment construits.
Démontrer que :
$$(x_2 | y) = 0$$
En déduire que :
$$x_2 = 0_E$$
En déduire que :
$$G^\perp = F$$
Appliquer le passage à l’orthogonal dans l’inclusion de l’énoncé afin de se ramener à la démonstration précédente.
D’après l’énoncé, le vecteur $x$ se décompose de la façon suivante :
$$x = x_1 + x_2, \quad x_1 \in F \subset G^\perp, \quad x_2 \in G$$
Soit $y \in G$ quelconque, qui ne dépend pas des vecteurs précédemment construits.
Par définition de l’orthogonal de espace vectoriel $G$ :
$$(x | y) = 0$$
Par ailleurs, en utilisant la linéarité du produit scalaire :
$$(x | y) = (x_1 + x_2 | y)$$
$$(x | y) = (x_1 | y) + (x_2 | y)$$
$$(x | y) = 0 + (x_2 | y), \quad x_1 \in G^\perp$$
Par symétrie et transitivité de l’égalité :
$$(x_2 | y) = 0$$
Ceci permet d’en déduire que :
$$x_2 \in G^\perp$$
Ainsi $x_2$ appartient à l’intersection des ensembles suivants :
$$x_2 \in G \cap G^\perp = \{0_E\}$$
$$x_2 = 0_E$$
On revient au vecteur $x$ :
$$x = x_1 \in F$$
On a donc démontré l’inclusion suivante :
$$G^\perp \subset F$$
Sachant que l’énoncé nous donne l’inclusion réciproque, on en déduit l’égalité :
$$G^\perp = F$$
On applique le passage à l’orthogonal dans l’inclusion de l’énoncé :
$$(G^\perp)^\perp \subset F^\perp$$
De plus on a cette inclusion qui est toujours vraie :
$$G \subset (G^\perp)^\perp$$
Par transitivité de l’inclusion on en déduit :
$$G \subset F^\perp$$
On refait la démonstration précédente en changeant les rôles respectifs joués par $F$ et par $G$ afin d’obtenir :
$$F^\perp = G$$
Exercice n° 5
Démontrer qu’un sous-espace vectoriel ne possède pas de supplémentaire orthogonal, espace vectoriel des fonctions continues
Filières : PTSI, PCSI, MPSI, MP2I
$$(f, g) = \int_0^1 f(t) g(t) \, dt.$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \{ f \in E \ | \ f(0) = 0 \}.$$
Démontrer que $ F $ ne possède pas de supplémentaire orthogonal.
$$(f, g) = \int_0^1 f(t) g(t) \, dt.$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \{ f \in E \ | \ f(0) = 0 \}.$$
Démontrer que l’orthogonal de $ F $, noté $ F^\perp $, est réduit à l’ensemble nul, ce qui se note :
$$
F^\perp = \{ 0 \}.
$$ En déduire que $ F $ ne possède pas de supplémentaire orthogonal.
$$(f, g) = \int_0^1 f(t) g(t) \, dt.$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \{ f \in E \ | \ f(0) = 0 \}.$$
On souhaite démontrer que $ F $ ne possède pas de supplémentaire orthogonal.
Construire un élément appartenant à $F^\perp$ puis démontrer que cet élément est nul.
En déduire que
$$
F^\perp = \{ 0 \}.
$$
Effectuer un raisonnement par l’absurde.
Terminer la démonstration.
$$(f, g) = \int_0^1 f(t) g(t) \, dt.$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \{ f \in E \ | \ f(0) = 0 \}.$$
On souhaite démontrer que $ F $ ne possède pas de supplémentaire orthogonal.
Soit $ g \in F^\perp $. On pose la fonction définie par :
$$h(x) = x \cdot g(x).$$
Démontrer que que $ h \in F $.
En déduire que :
$$\int_0^1 x g^2(x) \, dx = 0.$$
En déduire que $ g $ est identiquement nulle sur $ [0, 1] $.
En déduire que :
$$
F^\perp = \{ 0 \}.
$$
Effectuer un raisonnement par l’absurde en supposant que :
$$
F \oplus F^\perp = E,
$$
Terminer la démonstration.
$$h(x) = x \cdot g(x).$$
On remarque que $ h \in F $ car $ h(0) = 0 $. On a donc
$$(g, h) = 0$$
ce qui équivaut à :
$$\int_0^1 x g^2(x) \, dx = 0.$$ Or, la fonction $ x \mapsto x g^2(x) $ est continue et positive sur l’intervalle $ [0, 1] $.
Puisque cette intégrale est nulle, cela signifie que $ x g^2(x) = 0 $ presque partout sur $ [0, 1] $, et donc que $ g(x) = 0 $ pour tout $ x > 0 $. Par continuité de $ g $, on obtient que $ g $ est identiquement nulle sur $ [0, 1] $. Ainsi, on conclut que :
$$F^\perp = \{ 0 \}.$$
Supposons maintenant que $ F $ admette un supplémentaire orthogonal, soit $ E = F \oplus F^\perp $. Dans ce cas, on aurait :
$$F \oplus F^\perp = E,$$
mais comme $ F^\perp = \{ 0 \} $, cela impliquerait que
$$F = E$$
ce qui est une contradiction car les fonctions dans $ F $ satisfont $ f(0) = 0 $, alors que celles dans $ E $ ne le font pas nécessairement.
Conclusion : $ F $ n’a pas de supplémentaire orthogonal dans $ E $.
Exercice n° 6
Somme de sous-espaces vectoriels, intersection, inclusion
Filières : PTSI, PCSI, MPSI, MP2I
Démontrer que :
$$(F + G)^{\perp} = F^{\perp} \cap G^{\perp}$$
et
$$F^{\perp} + G^{\perp} \subset (F \cap G)^{\perp}.$$
On souhaite démontrer que :
$$(F + G)^{\perp} = F^{\perp} \cap G^{\perp}$$
et
$$F^{\perp} + G^{\perp} \subset (F \cap G)^{\perp}.$$
En utilisant le passage à l’orthogonal et des inclusions, démontrer que $(F + G)^{\perp} \subset F^{\perp} \cap G^{\perp}$.
En utilisant un vecteur $x \in F^{\perp} \cap G^{\perp}$, démontrer que $F^{\perp} \cap G^{\perp} \subset (F + G)^{\perp}$.
$(F + G)^{\perp} = F^{\perp} \cap G^{\perp}$.
En utilisant la stabilité d’un espace vectoriel par addition, démontrer que :
$$F^{\perp} + G^{\perp} \subset (F \cap G)^{\perp}.$$
Prenons maintenant un vecteur $x \in F^{\perp} \cap G^{\perp}$. Pour tout vecteur $z \in F + G$, il existe des éléments $f \in F$ et $g \in G$ tels que $z = f + g$. Cela donne :
$$(x, z) = (x, f) + (x, g) = 0.$$
Ainsi, $x$ est orthogonal à chaque vecteur de $F + G$, donc $F^{\perp} \cap G^{\perp} \subset (F + G)^{\perp}$. On en conclut que $(F + G)^{\perp} = F^{\perp} \cap G^{\perp}$.
Pour démontrer l’inclusion $F^{\perp} + G^{\perp} \subset (F \cap G)^{\perp}$, considérons que $F \cap G \subset F$ et $F \cap G \subset G$, ce qui signifie que $F^{\perp} \subset (F \cap G)^{\perp}$ et $G^{\perp} \subset (F \cap G)^{\perp}$. Puisque $(F \cap G)^{\perp}$ est un sous-espace vectoriel, il est stable par addition, donc on a :
$$F^{\perp} + G^{\perp} \subset (F \cap G)^{\perp}.$$
Exercice n° 7
Calculer la borne inférieure d’une intégrale dépendant de deux paramètres réels
Filières : PTSI, PCSI, MPSI, MP2I
$$\inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
$$\inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
$$\inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
On pose l’espace vectoriel $E$ défini par :
$$E = \mathcal{C}^0(]0;1], \mathbb{R})$$
On pose le produit scalaire $\varphi$ défini par :
$$\varphi : E^2 \to \mathbb{R}$$
$$(f,g) \mapsto \int_0^1 t^2 f(t) g(t) \, dt$$
On pose les fonctions définies par :
$$e_0 : t \mapsto 1, \quad e_1 : t \mapsto t, \quad u : t \mapsto \ln(t)$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_0, e_1)$$
Soit $v$ le projeté orthogonal de $u$ sur le sous-espace vectoriel $F$ :
$$v = p_F(u)$$
Soit
$$m = \inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
Sachant que $v \in F$ alors $\exists (a, b) \in \mathbb{R}^2, \quad \forall t \in ]0;1], \quad v(t) = a t + b$
$v$ vérifie le système :
$$(S) \iff \begin{cases}
(u – v | e_1) = 0 \\
(u – v | e_2) = 0
\end{cases}$$
Résoudre le système $(S)$
En déduire une expression de $v$.
Terminer la démonstration.
$$\inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
On pose l’espace vectoriel $E$ défini par :
$$E = \mathcal{C}^0(]0;1], \mathbb{R})$$
On pose le produit scalaire $\varphi$ défini par :
$$\varphi : E^2 \to \mathbb{R}$$
$$(f,g) \mapsto \int_0^1 t^2 f(t) g(t) \, dt$$
On pose les fonctions définies par :
$$e_0 : t \mapsto 1, \quad e_1 : t \mapsto t, \quad u : t \mapsto \ln(t)$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_0, e_1)$$
Soit $v$ le projeté orthogonal de $u$ sur le sous-espace vectoriel $F$ :
$$v = p_F(u)$$
Soit
$$m = \inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
Sachant que $v \in F$ alors $\exists (a, b) \in \mathbb{R}^2, \quad \forall t \in ]0;1], \quad v(t) = a t + b$
$v$ vérifie le système :
$$(S) \iff \begin{cases}
(u – v | e_1) = 0 \\
(u – v | e_2) = 0
\end{cases}$$
Résoudre le système $(S)$
En déduire une expression de $v$ :
$$\forall t \in [0;1], \quad v(t) = \frac{5}{3} t – \frac{19}{12}$$
Démontrer que :
$$m = (u | u) – (u | v)$$
En déduire que :
$$m = \frac{1}{432}$$
Terminer la démonstration.
On pose l’espace vectoriel $E$ défini par :
$$E = \mathcal{C}^0(]0;1], \mathbb{R})$$
On pose le produit scalaire $\varphi$ défini par :
$$\varphi : E^2 \to \mathbb{R}$$
$$(f,g) \mapsto \int_0^1 t^2 f(t) g(t) \, dt$$
On pose les fonctions définies par :
$$e_0 : t \mapsto 1, \quad e_1 : t \mapsto t, \quad u : t \mapsto \ln(t)$$
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_0, e_1)$$
Soit $v$ le projeté orthogonal de $u$ sur le sous-espace vectoriel $F$ :
$$v = p_F(u)$$
Soit
$$m = \inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\}$$
D’après un théorème de cours sur la projection orthogonale, on a :
$$m = d^2(u,v) = \|u – v\|^2$$
Sachant que $v \in F$ alors $\exists (a, b) \in \mathbb{R}^2, \quad \forall t \in ]0;1], \quad v(t) = a t + b$
$v$ vérifie le système :
$$(S) \iff \begin{cases}
(u – v | e_1) = 0 \\
(u – v | e_2) = 0
\end{cases}
\iff \begin{cases}
\int_0^1 t^2 (u(t) – v(t)) e_1(t) \, dt = 0 \\
\int_0^1 t^2 (u(t) – v(t)) e_2(t) \, dt = 0
\end{cases}$$
$$\iff \begin{cases}
\int_0^1 t^2 (\ln(t) – (a t + b)) \cdot 1 \, dt = 0 \\
\int_0^1 t^2 (\ln(t) – (a t + b)) t \, dt = 0
\end{cases}$$
$$\iff \begin{cases}
\int_0^1 t^2 \ln(t) \, dt – a \int_0^1 t^3 \, dt – b \int_0^1 t^2 \, dt = 0 \\
\int_0^1 t^3 \ln(t) \, dt – a \int_0^1 t^4 \, dt – b \int_0^1 t^3 \, dt = 0
\end{cases}$$
Soit $k \in \mathbb{N}$.
$$I_k = \int_0^1 t^k \, dt \quad ; \quad J_k = \int_0^1 t^k \ln(t) \, dt$$
$$I_k = \left[ \frac{t^{k+1}}{k+1} \right]_0^1$$
$$I_k = \frac{1}{k+1}$$
$$J_k = \int_0^1 t^k \ln(t) \, dt = \left[ \frac{t^{k+1}}{k+1} \ln(t) \right]_0^1 – \int_0^1 \frac{t^{k+1}}{k+1} \times \frac{1}{t} \, dt$$
$$J_k = \frac{1}{k+1} \left[ t^{k+1} \ln(t) \right]_0^1 – \frac{1}{k+1} \int_0^1 t^k \, dt$$
$$J_k = \frac{1}{k+1} (0 – 0) – \frac{1}{k+1} I_k, \quad t \ln(t) \xrightarrow[t \to 0^+]{} 0$$
$$J_k = -\frac{1}{k+1} \left( \frac{1}{k+1} \right)$$
$$J_k = -\frac{1}{(k+1)^2}$$
$$(S) \iff \begin{cases}
J_2 – a I_3 – b I_2 = 0 \\
J_3 – a I_4 – b I_3 = 0
\end{cases}$$
$$\iff \begin{cases}
-\frac{1}{9} – \frac{1}{4} a – \frac{1}{3} b = 0 \\
-\frac{1}{16} – \frac{1}{5} a – \frac{1}{4} b = 0
\end{cases}$$
$$\iff \begin{cases}
-4 – 9a – 12b = 0 \quad (\times 36) \\
-5 – 16a – 20b = 0 \quad (\times 80)
\end{cases}$$
$$\iff \begin{cases}
9a + 12b = -4 \\
16a + 20b = -5
\end{cases}$$
$$\iff \begin{cases}
9a + 12b = -4 \\
3a = 5
\end{cases}, \quad L_2 \leftarrow 3L_2 – 5L_1$$
$$\iff \begin{cases}
a = \frac{5}{3} \\
12b = -4 – 9 \times \left(\frac{5}{3}\right)
\end{cases}$$
$$\iff \begin{cases}
a = \frac{5}{3} \\
b = -\frac{19}{12}
\end{cases}$$
On en déduit une expression déterminée de $v$ le projeté orthogonal de $u$ :
$$\forall t \in [0;1], \quad v(t) = \frac{5}{3} t – \frac{19}{12}$$
On peut donc maintenant calculer $m$ :
$$m = d^2(u,v) = \| u – v \|^2 = (u – v | u – v)$$
$$m = (u | u – v) – (v | u – v)$$
$$m = (u | u – v) – 0, \quad v \perp (u – v)$$
$$m = (u | u) – (u | v)$$
$$m = \int_0^1 t^2 (u(t))^2 \, dt – \int_0^1 t^2 u(t) v(t) \, dt$$
$$m = \int_0^1 t^2 (\ln(t))^2 \, dt – \int_0^1 t^2 \ln(t) \left( \frac{5}{3} t – \frac{19}{12} \right) \, dt$$
On pose l’intégrale $K$ définie par :
$$K= \int_0^1 t^2 (\ln(t))^2 \, dt$$
$$m = K – \frac{5}{3} J_3 + \frac{19}{12} J_2$$
$$m =K – \frac{5}{3} \left( -\frac{1}{16} \right) + \frac{19}{12} \left( -\frac{1}{9} \right)$$
$$m = K + \frac{45 – 76}{3^3 \times 2^4}$$
$$m = K + \frac{-31}{432}$$
On calcule l’intégrale $K$ :
$$K = \int_0^1 t^2 (\ln(t))^2 \, dt = \left[ \frac{t^3}{3} (\ln(t))^2 \right]_0^1 – \int_0^1 \frac{t^3}{3} \left( 2 \frac{1}{t} \ln(t) \right) \, dt$$
$$K = 0 – 0 – \frac{2}{3} \int_0^1 t^2 \ln(t) \, dt, \quad t \ln(t) \xrightarrow[t \to 0^+]{} 0$$
$$K = -\frac{2}{3} J_2 = -\frac{2}{3} \left( -\frac{1}{9} \right) = \frac{2}{27}$$
$$K = \frac{32}{432}$$
On revient à $m$ :
$$m = \frac{32}{432} + \frac{-31}{432}$$
$$m = \frac{1}{432}$$
Conclusion :
$$\inf \left\{ \int_0^1 t^2 (\ln t – a t – b)^2 \, dt, \, (a,b) \in \mathbb{R}^2 \right\} = \frac{1}{432}$$
Exercice n° 8
Démontrer qu’une famille de vecteurs est une base orthonormée d’un espace vectoriel
Filières : PTSI, PCSI, MPSI, MP2I
On suppose que :
$$
\left\{
\begin{array}{l}
\forall i \in \{1, \dots, n\}, \quad \|e_i\| \geq 1 \\
\forall x \in E, \quad \sum_{i=1}^{n} (e_i | x)^2 = \|x\|^2.
\end{array}
\right.
$$
Démontrer que $(e_1, \dots, e_n)$ est une base orthonormée de $E$.
On suppose que :
$$
\left\{
\begin{array}{l}
\forall i \in \{1, \dots, n\}, \quad \|e_i\| \geq 1 \\
\forall x \in E, \quad \sum_{i=1}^{n} (e_i | x)^2 = \|x\|^2.
\end{array}
\right.
$$
On souhaite démontrer que $(e_1, \dots, e_n)$ est une base orthonormée de $E$.
On pose la famille de vecteurs $B=(e_1,…,e_n)$.
Appliquer l’égalité de l’énoncé pour $x = e_1$.
Généraliser la démarche.
En déduire que $B$ est une famille de vecteurs orthonormés.
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_1, \dots, e_n)$$
Démontrer que :
$$E \subset F$$
Terminer la démonstration.
On suppose que :
$$
\left\{
\begin{array}{l}
\forall i \in \{1, \dots, n\}, \quad \|e_i\| \geq 1 \\
\forall x \in E, \quad \sum_{i=1}^{n} (e_i | x)^2 = \|x\|^2.
\end{array}
\right.
$$
On souhaite démontrer que $(e_1, \dots, e_n)$ est une base orthonormée de $E$.
On pose la famille de vecteurs $B=(e_1,…,e_n)$.
Appliquer l’égalité de l’énoncé pour $x = e_1$.
Généraliser la démarche.
En déduire que $B$ est une famille de vecteurs orthonormés.
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_1, \dots, e_n)$$
Soit $p_F$ le projecteur orthogonal sur $F$.
Démontrer que :
$$\| x \|^2 = \| x – p_F(x) \|^2 + \| p_F(x) \|^2$$
En déduire que :
$$x = p_F(x)$$
En déduire que :
$$E \subset F$$
Terminer la démonstration.
On applique l’égalité de l’énoncé pour $x = e_1$ :
$$(e_1 | e_1)^2 + (e_2 | e_1)^2 + \dots + (e_n | e_1)^2 = \|e_1\|^2$$
$$\left(\|e_1\|^2\right)^2 + (e_2 | e_1)^2 + \dots + (e_n | e_1)^2 = \|e_1\|^2$$
$$(e_2 | e_1)^2 + \dots + (e_n | e_1)^2 = \|e_1\|^2 – \left(\|e_1\|^2\right)^2$$
$$0 \leq (e_2 | e_1)^2 + \dots + (e_n | e_1)^2 = \|e_1\|^2 (1 – \|e_1\|^2) \leq 0, \quad \|e_1\| \geq 1$$
On a inégalité dans les deux sens donc égalité :
$$\begin{cases}
(e_2 | e_1)^2 + \dots + (e_n | e_1)^2 = 0 \\
\|e_1\|^2 (1 – \|e_1\|^2) = 0
\end{cases}$$
Une somme de termes positifs et nulle si et seulement si tous les termes sont nuls :
$$\begin{cases}
(e_2 | e_1) = \dots = (e_n | e_1) = 0 \\
1 – \|e_1\|^2 = 0, \quad \|e_1\| \neq 0
\end{cases}$$
$$\begin{cases}
(e_2 | e_1) = \dots = (e_n | e_1) = 0 \\
\|e_1\| = 1
\end{cases}$$
Donc le vecteur $e_1$ est unitaire (de norme $1$) et orthogonal à tous les autres vecteurs de la famille $B$.
Sachant que les vecteurs de la famille $B$ jouent des rôles symétriques, on en déduit que $B$ est une famille de vecteurs orthonormés.
On pose le sous-espace vectoriel $F$ défini par :
$$F = \operatorname{Vect}(e_1, \dots, e_n)$$
Soit $p_F$ le projecteur orthogonal sur $F$.
De façon évidente on a :
$$F \subset E$$
On va démontrer l’inclusion réciproque.
Soit $x \in E$.
Par un théorème de cours sur les projecteurs orthogonaux :
$$p_F(x) = (e_1 | x) e_1 + \dots + (e_n | x) e_n$$
$$\| p_F(x) \|^2 = (e_1 | x)^2 + \dots + (e_n | x)^2$$
D’après l’énoncé, on obtient :
$$\| p_F(x) \|^2 = \| x \|^2$$
On utilise le théorème de Pythagore :
$$\| x \|^2 = \| (x – p_F(x)) + p_F(x) \|^2$$
$$\| x \|^2 = \| x – p_F(x) \|^2 + \| p_F(x) \|^2$$
$$\| x \|^2 = \| x – p_F(x) \|^2 + \| x \|^2$$
On en déduit :
$$\| x – p_F(x) \|^2 = 0$$
$$x = p_F(x) \in F$$
On vient de démontrer que :
$$E \subset F$$
On a donc la double inclusion
$$E = F=\operatorname{Vect}(e_1, \dots, e_n)$$
Conclusion :
$(e_1,…,e_n)$ est une base orthonormale de $E$.
Remarque : on a aussi démontré que l’espace vectoriel $E$ est de dimensions finie.
Exercice n° 9
Condition nécessaire et suffisante pour qu’un projecteur soit un projecteur orthogonal, inégalité portant sur la norme de l’image
Filières : PTSI, PCSI, MPSI, MP2I
Démontrer que :
$$ \ker(p) \perp \operatorname{Im}(p) \iff (\forall x \in E, \ \|p(x)\| \leq \|x\|). $$
On souhaite démontrer que :
$$ \ker(p) \perp \operatorname{Im}(p) \iff (\forall x \in E, \ \|p(x)\| \leq \|x\|). $$
Démontrer le sens facile.
Démontrer le sens subtil en utilisant un vecteur paramétré bien choisi.
On souhaite démontrer que :
$$ \ker(p) \perp \operatorname{Im}(p) \iff (\forall x \in E, \ \|p(x)\| \leq \|x\|). $$
Démontrer le sens facile en utilisant le théorème de Pythagore.
On démonte maintenant le sens subtil :
Soient $ u \in \ker(p), \quad v \in \operatorname{Im}(p), \quad \lambda \in \mathbb{R}, \quad x = u + \lambda v $.
Calculer $\|p(x)\|^2$ et $\|x\|^2$.
En déduire que :
$$0 \leq \|u\|^2 + 2 \lambda (u | v)$$
Effectuer un raisonnement par l’absurde pour démontrer que $(u | v) = 0$.
Terminer la démonstration.
On souhaite démontrer que :
$$ \ker(p) \perp \operatorname{Im}(p) \iff (\forall x \in E, \ \|p(x)\| \leq \|x\|). $$
Appliquer le théorème de Pythagore pour des vecteurs orthogonaux :
$$\|x\|^2 = \|(x – p(x)) + p(x)\|^2$$
On démonte maintenant le sens subtil :
Soient $ u \in \ker(p), \quad v \in \operatorname{Im}(p), \quad \lambda \in \mathbb{R}, \quad x = u + \lambda v $.
Démontrer que :
$$\|p(x)\|^2 = \lambda^2 \|v\|^2$$
Démontrer que :
$$\|x\|^2 = \|u\|^2 + \lambda^2 \|v\|^2 + 2 \lambda (u | v)$$
En déduire que :
$$0 \leq \|u\|^2 + 2 \lambda (u | v)$$
Effectuer un raisonnement par l’absurde et un calcul de limite pour démontrer que $(u | v) = 0$.
Terminer la démonstration.
Soit $ x \in E $.
On applique le théorème de Pythagore pour des vecteurs orthogonaux :
$$\|x\|^2 = \|(x – p(x)) + p(x)\|^2$$
$$\|x\|^2 = \|x – p(x)\|^2 + \|p(x)\|^2, \quad x – p(x) \in \ker(p), \quad p(x) \in \operatorname{Im}(p)$$
On isole la norme au carré de l’image par le projecteur :
$$\|p(x)\|^2 = \|x\|^2 – \|x – p(x)\|^2 \leq \|x\|^2$$
On applique la fonction racine carrée :
$$\|p(x)\| \leq \|x\|$$
On suppose que $\forall x \in E, \quad \|p(x)\| \leq \|x\|$
Donc $\forall x \in E, \quad \|p(x)\|^2 \leq \|x\|^2$
Soient $ u \in \ker(p), \quad v \in \operatorname{Im}(p), \quad \lambda \in \mathbb{R}, \quad x = u + \lambda v $.
$$\|p(x)\|^2 = \|p(u + \lambda v)\|^2 = \|p(u) + \lambda p(v)\|^2 = \|\lambda v\|^2 = \lambda^2 \|v\|^2$$
$$\|x\|^2 = \|u + \lambda v\|^2 = \|u\|^2 + \lambda^2 \|v\|^2 + 2 \lambda (u | v)$$
On en déduit l’inégalité :
$$\lambda^2 \|v\|^2 \leq \|u\|^2 + \lambda^2 \|v\|^2 + 2 \lambda (u | v)$$
On simplifie l’inégalité :
$$0 \leq \|u\|^2 + 2 \lambda (u | v)$$
Si $ (u | v) > 0 $,
$$\|u\|^2 + 2\lambda (u | v) \xrightarrow[\lambda \to -\infty]{} -\infty$$
Cela est contradictoire avec l’inégalité précédente.
Si $ (u | v) < 0 $,
$$\|u\|^2 + 2\lambda (u | v) \xrightarrow[\lambda \to +\infty]{} -\infty$$
Cela est contradictoire avec l’inégalité précédente.
On en déduit que :
$$\forall (u,v) \in \ker(p) \times \operatorname{Im}(p), \quad (u | v) = 0$$
Ceci peut se reformuler :
$$\ker(p) \perp \operatorname{Im}(p)$$
Exercice n° 10
Démontrer qu’une application est une application linéaire, produits scalaires, normes
Filières : PTSI, PCSI, MPSI, MP2I
Soit $f : E \longrightarrow F$ une application telle que $f(0_E) = 0_F$ et telle que :
$$ \forall (x,y) \in E^2, \quad \| f(x) – f(y) \|_F = \| x – y \|_E. $$
Démontrer que $f$ est une application linéaire.
Soit $f : E \longrightarrow F$ une application telle que $f(0_E) = 0_F$ et telle que :
$$ \forall (x,y) \in E^2, \quad \| f(x) – f(y) \|_F = \| x – y \|_E. $$
On souhaite démontrer que $f$ est une application linéaire.
Démontrer que l’application $f$ préserve la norme.
En déduire que l’application $f$ préserve le produit scalaire.
En utilisant le caractère défini du produit scalaire (ou de la norme), terminer la démonstration.
On va démontrer que l’application $f$ préserve la norme :
$$\|f(x)\|_F = \|f(x) – 0_F\| = \|f(x) – f(0_E)\|_F = \|x – 0_E\|_E = \|x\|_E$$
On fait deux calculs séparés :
$$\|f(x) – f(y)\|_F^2 = \|f(x)\|_F^2 + \|f(y)\|_F^2 – 2 \langle f(x) | f(y) \rangle = \|x\|_E^2 + \|y\|_E^2 – 2 \langle f(x) | f(y) \rangle$$
$$\|x – y\|_E^2 = \|x\|_E^2 + \|y\|_E^2 – 2 ( x | y )$$
On utilise la transitivité et la symétrie de l’égalité pour obtenir :
$$\langle f(x) | f(y) \rangle = ( x | y )$$
Ceci signifie que l’application $f$ préserve le produit scalaire.
$$\| f(x+\lambda y) – f(x) – \lambda f(y) \|_F^2 = \| f(x+\lambda y) \|_F^2 + \| f(x) \|_F^2 + \| \lambda f( y) \|_F^2 – 2 \langle f(x+\lambda y) | f(x) \rangle + 2 \langle f(x) | f(\lambda y) \rangle – 2 \langle f(x+\lambda y) | f(\lambda y) \rangle$$
$$= \|x+\lambda y\|_E^2 + \|x\|_E^2 + \|\lambda y\|_E^2 – 2 (x+\lambda y | x) + 2 (x | \lambda y) – 2 (x+\lambda y | \lambda y)$$
$$= 2 \|x\|_E^2 + 2 \|\lambda y\|_E^2 + 2 (x | \lambda y) – 2 \|x\|_E^2 – 2 (\lambda y | x) + 2 (x | \lambda y) – 2 (x | \lambda y) – 2 \|\lambda y\|_E^2$$
$$= 0$$
On en déduit que :
$$f(x+\lambda y) = f(x) + \lambda f(y)$$
Ce qui signifie que l’application $f$ est une application linéaire.