Énoncé de l’exercice n°1 :
Trouver toutes les applications $f : \mathbb{R} \to \mathbb{R}$ dérivables en $0$ telles que :
$$
\forall (x, y) \in \mathbb{R}^2, \quad f(x + y) = e^x f(y) + e^y f(x).
$$
Indication :
Simplifier l’équation en séparant les variables $x$ et $y$.
Corrigé de l’exercice :
L’équation fonctionnelle notée $(E)$ est symétrique en les variables $x$ et $y$, ceci nous incite à séparer ces variables. Pour ce faire, on divise membre à membre par $e^{x+y}$.
$$
(E) \iff \frac{f(x+y)}{e^{x+y}} = \frac{f(x)}{e^x} + \frac{f(y)}{e^y}
$$
On pose $g$ définie par : $\forall x \in \mathbb{R}, \, g(x) = \frac{f(x)}{e^x}$.
$$
(E) \iff g(x+y) = g(x) + g(y)
$$
Pour $x = y = 0$, on a $g(0) = 2g(0) \iff g(0) = 0$.
Remarque : on reconnaît l’équation fonctionnelle de Cauchy.
On calcule le taux d’accroissement en $x \in \mathbb{R}$, pour $h \neq 0$ :
$$
\tau_x(h) = \frac{g(x+h) – g(x)}{h} = \frac{g(x) + g(h) – g(x)}{h} = \frac{g(h)}{h} = \frac{g(h)-g(0)}{h}
$$
$g$ est produit de fonctions dérivables en 0, donc g est dérivable en 0, donc lorsque $h \to 0$, $\tau_x(h) \to g'(0)$. On pose $\alpha = g'(0)$.
Donc $\forall x \in \mathbb{R}, \, g'(x) = \alpha$.
En intégrant on a : $\forall x \in \mathbb{R}, \, g(x) = \alpha x + \beta$, avec $\beta \in \mathbb{R}$.
Sachant que $g(0) = 0$, on trouve $\beta = 0$.
Ainsi, $\forall x \in \mathbb{R}, \, g(x) = \alpha x$
Donc $\forall x \in \mathbb{R}, \, f(x) = \alpha x e^x$.
Réciproquement, si $f$ est de la forme ci-dessus :
$$
\forall (x, y) \in \mathbb{R}^2, \, f(x+y) = \alpha (x+y) e^{x+y} = \alpha (y + x) e^x e^y
= e^x (\alpha y e^y) + e^y (\alpha x e^x)
$$
$$
f(x+y) = e^x f(y) + e^y f(x)
$$
Conclusion : l’ensemble des solutions de l’équation fonctionnelle $(E)$ est $Vect \left( x \mapsto x e^x \right)$.
Énoncé de l’exercice n°2 :
Soit $a : \mathbb{R}^+ \to \mathbb{R}$ continue et intégrable sur $\mathbb{R}^+$.
Démontrer que les solutions de l’équation différentielle $y’ + a(t)y = 0$ sont bornées sur $\mathbb{R}^+$.
Indication :
Résoudre l’équation différentielle puis démontrer que les fonctions solutions sont convergentes en $+\infty$.
Corrigé de l’exercice :
$a$ est intégrable, donc, par définition, $\int_0^{+\infty} |a|$ converge, et par théorème $\int_0^{+\infty} a$ converge.
D’après le théorème de cours sur les équations différentielles linéaires du premier ordre, $y$ est définie par :
$$
\forall t \in \mathbb{R}^+, \quad y(t) = \lambda e^{-\int_0^t a}, \quad \lambda \in \mathbb{R}
$$
Par continuité de la fonction exponentielle et par composition des limites :
$$
y(t) \xrightarrow[t \to +\infty]{} \lambda e^{-\int_0^{+\infty} a} \in \mathbb{R}
$$
Donc $y$ converge, donc $y$ est bornée.
Conclusion : Les solutions de l’équation différentielle $y’ – a(t)y = 0$ sont bornées sur $\mathbb{R}^+$.
Énoncé de l’exercice n°3 :
a) Soit $h : \mathbb{R} \to \mathbb{C}$ continue de limite nulle en $+\infty$.
Démontrer que les solutions de l’équation différentielle $y’ + y = h$ convergent vers $0$ en $+\infty$.
b) Soit $f : \mathbb{R} \to \mathbb{C}$ de classe $C^1$. On suppose que $f + f’ \xrightarrow[+\infty]{} \ell$.
Démontrer que $f \xrightarrow[+\infty]{} \ell$.
Indication :
a) Utiliser la définition de la limite (avec « du $\varepsilon$ »).
b) Utiliser la question a).
Corrigé de l’exercice :
a) On note $(E): y’ + y = h$ ; $(H): y’ + y = 0$.
L’équation homogène $(H)$ a pour ensemble de solutions les fonctions définies par :
$$
\forall t \in \mathbb{R}, \quad y_H(t) = \lambda e^{-t}, \quad \lambda \in \mathbb{C}
$$
Pour trouver une solution particulière, on utilise la méthode de variation de la constante. Soit $y_p$ définie par :
$$
\forall t \in \mathbb{R}, \quad y_p(t) = \lambda(t) e^{-t}, \quad \lambda \in C^1(\mathbb{R}, \mathbb{C})
$$
$y_p$ est solution de $(E)$.
$$
\iff \forall t \in \mathbb{R}, \quad y_p'(t) + y_p(t) = h(t)
$$
$$
\iff \forall t \in \mathbb{R}, \quad \lambda'(t) e^{-t} – \lambda(t) e^{-t} + \lambda(t) e^{-t} = h(t)
$$
$$
\iff \forall t \in \mathbb{R}, \quad \lambda'(t) e^{-t} = h(t)
$$
$$\iff \forall t \in \mathbb{R}, \quad \lambda'(t) = e^t h(t)
$$
$$\iff \forall t \in \mathbb{R}, \quad \lambda(t) = \int_0^t e^u h(u) \, du + k, \quad k \in \mathbb{C}
$$
On veut obtenir une solution particulière, donc on peut choisir $k = 0$, donc :
$$
\forall t \in \mathbb{R}, \quad y_p(t) = e^{-t} \int_0^t e^u h(u) \, du
$$
Donc l’ensemble des solutions de $(E)$ est l’ensemble des fonctions $y$ définies par $y = y_p + y_H$.
On veut démontrer que $y_H \xrightarrow[t \to +\infty]{} 0$ et $y_p \xrightarrow[t \to +\infty]{} 0$.
Soit $t \in \mathbb{R}$, $y_H(t) = \lambda e^{-t} \xrightarrow[t \to +\infty]{} \lambda \cdot 0 = 0$.
Le calcul direct de la limite de $y_p$ est difficile, on choisit donc d’utiliser la définition de la limite.
$h \xrightarrow[t \to +\infty]{} 0$. Soit $\varepsilon > 0$, il existe $t_0 \in \mathbb{R}$ tel que $\forall t \geq t_0, \, |h(t)| \leq \frac{\varepsilon}{2}$.
Soit $t \geq t_0$,
$$
|y_p(t)| = \left| e^{-t} \int_0^t e^u h(u) \, du \right| = e^{-t} \left| \int_0^{t_0} e^u h(u) \, du + \int_{t_0}^t e^u h(u) \, du \right|
$$
On pose $I =\int_0^{t_0} e^u h(u)$, $I$ est une constante.
$$
|y_p(t)|= e^{-t} \left| I + \int_{t_0}^t e^u h(u) \, du \right| \leq e^{-t} |I| + e^{-t} \left| \int_{t_0}^t e^u h(u) \, du \right|
$$
On travaille sur le second terme :
$$
e^{-t} \left| \int_{t_0}^t e^u h(u) \, du \right| \leq e^{-t} \int_{t_0}^t e^u |h(u)| \, du
$$
$$
\leq e^{-t} \int_{t_0}^t e^u \frac{\varepsilon}{2} \, du = \frac{\varepsilon}{2} e^{-t} \left( e^t – e^{t_0} \right) = \frac{\varepsilon}{2} \left( 1 – e^{-t + t_0} \right) \leq\frac{\varepsilon}{2}
$$
Par ailleurs, $e^{-t} |I| \xrightarrow[t \to +\infty]{} 0$, donc il existe $t_1 \in \mathbb{R}$ tel que $\forall t \geq t_1, \, e^{-t} |I| \leq \frac{\varepsilon}{2}$.
On pose $t_2 = \max(t_0, t_1)$, on a :
$$
\forall t \geq t_2, \quad |y_p(t)| \leq \frac{\varepsilon}{2} + \frac{\varepsilon}{2} = \varepsilon
$$
Donc, par définition de la limite, $y_p(t) \xrightarrow[t \to +\infty]{} 0$.
Donc, par somme des limites, $y(t) = y_H(t) + y_p(t) \xrightarrow[t \to +\infty]{} 0+0=0$.
Conclusion : les solutions de l’équation différentielle $(E)$ convergent vers $0$.
b) On va, bien sûr, (tenter d’) utiliser la question a).
$f \xrightarrow[+\infty]{} \ell \iff (f – \ell) \xrightarrow[+\infty]{} 0$. On pose donc $g = f – \ell$.
$$
g’ + g = (f – \ell)’ + (f – \ell) = f’ – 0 + f – \ell
= f’ + f – \ell \xrightarrow[t \to +\infty]{} \ell – \ell = 0
$$
On pose $h = g’ + g$, on a $h$ continue et $h \xrightarrow[+\infty]{} 0$,
Donc, d’après a), $g \xrightarrow[+\infty]{} 0$, donc $f – \ell \xrightarrow[+\infty]{} 0$, donc $f \xrightarrow[+\infty]{} \ell$.
Conclusion : $f \xrightarrow[+\infty]{} \ell$.
Énoncé de l’exercice n°4 :
Soit $A \in \mathcal{M}_{2n}(\mathbb{R})$ une matrice vérifiant :
$$
A^2 + I_{2n} = O_{2n}.
$$
Exprimer la solution de l’équation différentielle :
$$
X'(t) = AX(t).
$$
Indication :
Séparer les termes pairs des termes impairs dans l’expression de $\exp(tA)$.
Corrigé de l’exercice :
D’après un théorème de cours sur les équations différentielles, une fonction vectorielle $X$ solution de l’équation est de la forme :
$$
\forall t \in \mathbb{R}, \quad X(t) = \exp(tA)X_0, \quad X_0 \in \mathcal{M}_{2n,1}(\mathbb{R}).
$$
Le cœur du problème est de simplifier l’expression de $\exp(tA)$.
$$
\exp(tA) = \sum_{k \in \mathbb{N}} \frac{t^k}{k!} A^k
$$
$$
\exp(tA) = \sum_{k \in 2\mathbb{N}} \frac{t^k}{k!} A^k + \sum_{k \in 2\mathbb{N}+1} \frac{t^k}{k!} A^k
$$
$$
\exp(tA) = \sum_{j \in \mathbb{N}} \frac{t^{2j}}{(2j)!} A^{2j} + \sum_{j \in \mathbb{N}} \frac{t^{2j+1}}{(2j+1)!} A^{2j+1}
$$
$$
\exp(tA) = \sum_{j \in \mathbb{N}} \frac{t^{2j}}{(2j)!} (A^2)^j + \sum_{j \in \mathbb{N}} \frac{t^{2j+1}}{(2j+1)!} (A^2)^j A
$$
$$
\exp(tA) = \sum_{j \in \mathbb{N}} \frac{t^{2j}}{(2j)!} (-I_{2n})^j + \sum_{j \in \mathbb{N}} \frac{t^{2j+1}}{(2j+1)!} (-I_{2n})^j A
$$
$$
\exp(tA) = \left( \sum_{j \in \mathbb{N}} \frac{(-1)^j t^{2j}}{(2j)!} \right)I_{2n} + \left( \sum_{j \in \mathbb{N}} \frac{(-1)^j t^{2j+1}}{(2j+1)!} \right) A
$$
On reconnaît les développements en série entière des fonctions cosinus et sinus.
$$
\exp(tA) = \cos(t)I_{2n} + \sin(t) A
$$
Conclusion : $\forall t \in \mathbb{R}, X(t) = \left( \cos(t) I_{2n} + \sin(t) A \right)X_0, \quad X_0 \in \mathcal{M}_{2n,1}(\mathbb{R})$
Énoncé de l’exercice n°5 :
On munit $\mathbb{R}^n$ de sa structure euclidienne canonique et on identifie $\mathcal{L}(\mathbb{R}^n)$ avec $\mathcal{M}_n(\mathbb{R})$.
Soit $A \in \mathcal{M}_n(\mathbb{R})$. Montrer l’équivalence de :
(i) $A$ est antisymétrique.
ii) Toute solution du système différentiel $Y’ = AY$ est de norme constante.
Indication :
i) Dériver la fonction $t \mapsto \| Y(t) \|^2$.
ii) Utiliser un développement limité de l’exponentielle matricielle.
Corrigé de l’exercice :
Soit $Y$ une solution du système différentiel $(E) : Y’ = AY$.
i) On suppose que $A$ est antisymétrique.
On a $A^\top = -A \iff A + A^\top = \mathbf{O}_{\mathcal{M}_n(\mathbb{R})} $.
$t \mapsto \| Y(t) \|^2$ est produit de fonctions dérivables donc est dérivable.
$$
\text{Soit } t \in \mathbb{R}, \quad
\frac{d}{dt} \left( \| Y(t) \|^2 \right) = \frac{d}{dt} \left( Y(t)^\top Y(t) \right)
$$
$$
= Y'(t)^\top Y(t) + Y(t)^\top Y'(t)
$$
$$
= (AY(t))^\top Y(t) + Y(t)^\top (AY(t))
$$
$$
= Y(t)^\top A^\top Y(t) + Y(t)^\top AY(t)
$$
$$
= Y(t)^\top (A^\top + A) Y(t)
$$
$$
= Y(t)^\top \left( \mathbf{O}_{\mathcal{M}_n(\mathbb{R}} \right) Y(t)
$$
$$
= \mathbf{O}_{\mathbb{R}}
$$
$\frac{d}{dt} \left( \| Y(t) \|^2 \right) = \mathbf{O}_{\mathbb{R}}$, donc $t \mapsto \| Y(t) \|^2$ est une fonction constante.
Donc $t \mapsto \| Y(t) \|$ est une fonction constante.
ii) On suppose que la norme de $Y$ est constante.
Par un théorème de cours sur les systèmes différentiels, $Y$ est de la forme :
$$
\forall t \in \mathbb{R}, \quad Y(t) = \exp(tA) Y_0, \quad Y_0 \in \mathbb{R}^n.
$$
Soit $t \in \mathbb{R}$,
$$
\| Y(t) \|^2 = Y(t)^\top Y(t)
$$
$$
= \left( \exp(tA) Y_0 \right)^\top \left( \exp(tA) Y_0 \right)
$$
$$
= Y_0^\top \exp(tA)^\top \exp(tA) Y_0.
$$
$$
= Y_0^\top \exp(tA^\top )\exp(tA) Y_0.
$$
Attention, $A$ et $A^\top$ ne commutent pas nécessairement, donc on ne peut pas simplifier facilement le produit des exponentielles matricielles.
On fait un développement limité à l’ordre 1 de chaque exponentielle matricielle :
$$
\exp(tA^\top )\exp(tA) = \left( I_n + tA^\top + o(t) \right) \left( I_n + tA + o(t) \right)
$$
$$
= I_n + tA^\top + tA + t^2 A^\top A + o(t)
$$
$$
\exp(tA^\top )\exp(tA) = I_n + t(A^\top + A) + o(t).
$$
On pose $S = A^\top + A$, $S$ est une matrice symétrique.
Donc
$$
\| Y(t) \|^2 = Y_0^\top \exp(tA^\top) \exp(tA) Y_0
$$
$$
= Y_0^\top (I_n + tS + o(t)) Y_0.
$$
$$
\| Y(t) \|^2 = \| Y_0 \|^2 + t \left( Y_0^\top S Y_0 \right) + o(t).
$$
$t \mapsto \| Y(t) \|^2$ est une fonction constante, donc les termes d’ordre supérieur ou égal à 1 de son développement limité sont tous nuls.
Donc $Y_0^\top S Y_0 = 0$.
Cette égalité est vraie pour toutes les solutions du système différentiel.
Donc $\forall Y_0 \in \mathbb{R}^n, \; Y_0^\top S Y_0 = 0$.
En particulier, ceci est vrai pour $Y_0$ un vecteur propre de $S$ associé à une valeur propre $\lambda \in \operatorname{Sp}(S)$ :
$$
Y_0^\top (SY_0) = 0
$$
$$
\Rightarrow Y_0^\top (\lambda Y_0) = 0
$$
$$
\Rightarrow \lambda \| Y_0 \|^2 = 0
$$
$$
\Rightarrow \lambda = 0 \; \text{ou} \; \| Y_0 \| = 0.
$$
$Y_0$ est un vecteur propre, donc $Y_0 \neq 0$, donc $\| Y_0 \| \neq 0$, donc $\lambda = 0$. Donc toutes les valeurs propres de $S$ sont nulles.
De plus, $S$ est une matrice symétrique réelle donc $S$ est diagonalisable (plus précisément, orthogonalisable).
Une matrice de spectre réduit à $\{ 0 \}$ et diagonalisable est nulle, donc $S = \mathbf{O}_{\mathcal{M}_n(\mathbb{R})} $, donc $A^\top + A = \mathbf{O}_{\mathcal{M}_n(\mathbb{R})}$, donc $A = -A^\top$.
Donc $A$ est une matrice antisymétrique.
Conclusion : $A$ est une matrice antisymétrique si, et seulement si, chaque solution du système différentiel $Y’ = AY$ est de norme constante.
Énoncé de l’exercice n°6 :