Exercices Corrigés sur les Espaces de Hilbert et Bases Orthonormales
Compétences travaillées : Comprendre la notion d'espace de Hilbert, maîtriser la construction et les propriétés des bases orthonormales, appliquer ces concepts pour résoudre des problèmes d'analyse fonctionnelle.
Erreurs fréquentes : Confusion entre orthogonalité et orthonormalité, erreurs dans l'application du procédé de Gram-Schmidt, mauvaise compréhension de la convergence des séries dans un espace de Hilbert.
Cette série d'exercices te propose de plonger au cœur des espaces de Hilbert, un concept fondamental en analyse fonctionnelle. Nous allons explorer les bases orthonormales, un outil puissant pour simplifier de nombreux problèmes. La difficulté augmente progressivement pour te permettre de construire ta compréhension pas à pas.
Exercice 1 : Soit $V$ un espace vectoriel réel muni d'un produit scalaire $\langle \cdot, \cdot \rangle$. Montre que pour tout $u, v \in V$, on a l'inégalité de Cauchy-Schwarz : $|\langle u, v \rangle| \leq \|u\| \|v\|$. Quand l'égalité est-elle atteinte ?
Correction :
L'inégalité de Cauchy-Schwarz est une propriété fondamentale des espaces préhilbertiens.
Méthode : On utilise une approche géométrique ou algébrique.
Solution étape par étape :
Considérons le vecteur $w = v - \alpha u$ pour un scalaire $\alpha$. Le carré de sa norme est non-négatif : $\langle w, w \rangle \geq 0$.
$\langle v - \alpha u, v - \alpha u \rangle = \langle v, v \rangle - \alpha \langle v, u \rangle - \alpha \langle u, v \rangle + \alpha^2 \langle u, u \rangle \geq 0$
$= \|v\|^2 - 2\alpha \langle u, v \rangle + \alpha^2 \|u\|^2 \geq 0$
Ceci est un polynôme du second degré en $\alpha$. Pour qu'il soit toujours $\geq 0$, son discriminant doit être $\leq 0$. Le discriminant est $\Delta = (2\langle u, v \rangle)^2 - 4 \|u\|^2 \|v\|^2$.
Donc, $4\langle u, v \rangle^2 - 4 \|u\|^2 \|v\|^2 \leq 0$, ce qui implique $\langle u, v \rangle^2 \leq \|u\|^2 \|v\|^2$. En prenant la racine carrée, on obtient $|\langle u, v \rangle| \leq \|u\| \|v\|$.
Condition d'égalité : L'égalité est atteinte si et seulement si le polynôme en $\alpha$ a une racine double, c'est-à-dire si $w = 0$ pour une certaine valeur de $\alpha$. Cela signifie que $v - \alpha u = 0$, soit $v = \alpha u$. Autrement dit, $u$ et $v$ sont colinéaires.
Astuce : Pense au cas où $u=0$ ou $v=0$. L'inégalité est trivialement vérifiée.
Résultat : L'inégalité de Cauchy-Schwarz est $|\langle u, v \rangle| \leq \|u\| \|v\|$, avec égalité si $u$ et $v$ sont linéairement dépendants.
Exercice 2 : Dans l'espace $\mathbb{R}^2$ muni du produit scalaire canonique, considère les vecteurs $u = (1, 2)$ et $v = (3, -1)$. Calcule $\langle u, v \rangle$, $\|u\|$, $\|v\|$, et vérifie l'inégalité de Cauchy-Schwarz.
Correction :
Nous allons appliquer les définitions du produit scalaire et de la norme dans $\mathbb{R}^2$.
Solution étape par étape :
Le produit scalaire canonique de $u = (u_1, u_2)$ et $v = (v_1, v_2)$ est $\langle u, v \rangle = u_1 v_1 + u_2 v_2$.
$\langle u, v \rangle = \langle (1, 2), (3, -1) \rangle = 1 \times 3 + 2 \times (-1) = 3 - 2 = 1$.
La norme de $u$ est $\|u\| = \sqrt{\langle u, u \rangle} = \sqrt{u_1^2 + u_2^2}$.
$\|u\| = \|(1, 2)\| = \sqrt{1^2 + 2^2} = \sqrt{1 + 4} = \sqrt{5}$.
$\|v\| = \|(3, -1)\| = \sqrt{3^2 + (-1)^2} = \sqrt{9 + 1} = \sqrt{10}$.
Vérifions Cauchy-Schwarz : $|\langle u, v \rangle| = |1| = 1$. Et $\|u\| \|v\| = \sqrt{5} \times \sqrt{10} = \sqrt{50} = 5\sqrt{2}$.
Comme $1 \leq 5\sqrt{2}$, l'inégalité est bien vérifiée.
Point méthode : L'inégalité de Cauchy-Schwarz est toujours vérifiée, c'est une propriété fondamentale.
Résultat : $\langle u, v \rangle = 1$, $\|u\| = \sqrt{5}$, $\|v\| = \sqrt{10}$. L'inégalité de Cauchy-Schwarz est vérifiée.
Exercice 3 : Dans l'espace $L^2([0, 1])$ des fonctions intégrables au carré sur $[0, 1]$, muni du produit scalaire $\langle f, g \rangle = \int_0^1 f(x)g(x) dx$, considère les fonctions $f(x) = x$ et $g(x) = x^2$. Calcule $\langle f, g \rangle$, $\|f\|$, $\|g\|$, et vérifie l'inégalité de Cauchy-Schwarz.
Correction :
Cet exercice applique les concepts dans un espace de fonctions, un espace de Hilbert de dimension infinie.
Solution étape par étape :
Calcul du produit scalaire :
$\langle f, g \rangle = \int_0^1 x \cdot x^2 dx = \int_0^1 x^3 dx = \left[ \frac{x^4}{4} \right]_0^1 = \frac{1^4}{4} - \frac{0^4}{4} = \frac{1}{4}$.
Calcul de la norme de f :
$\|f\|^2 = \langle f, f \rangle = \int_0^1 x \cdot x dx = \int_0^1 x^2 dx = \left[ \frac{x^3}{3} \right]_0^1 = \frac{1^3}{3} - \frac{0^3}{3} = \frac{1}{3}$. Donc, $\|f\| = \sqrt{\frac{1}{3}} = \frac{1}{\sqrt{3}}$.
Calcul de la norme de g :
$\|g\|^2 = \langle g, g \rangle = \int_0^1 x^2 \cdot x^2 dx = \int_0^1 x^4 dx = \left[ \frac{x^5}{5} \right]_0^1 = \frac{1^5}{5} - \frac{0^5}{5} = \frac{1}{5}$. Donc, $\|g\| = \sqrt{\frac{1}{5}} = \frac{1}{\sqrt{5}}$.
Vérification de Cauchy-Schwarz :
$|\langle f, g \rangle| = \left|\frac{1}{4}\right| = \frac{1}{4}$.
$\|f\| \|g\| = \frac{1}{\sqrt{3}} \times \frac{1}{\sqrt{5}} = \frac{1}{\sqrt{15}}$.
Il faut vérifier si $\frac{1}{4} \leq \frac{1}{\sqrt{15}}$. Cela équivaut à $\sqrt{15} \leq 4$, ce qui est vrai car $15 \leq 16$. L'inégalité est donc vérifiée.
Astuce : Les intégrales de puissance sont souvent utilisées dans $L^2([0, 1])$.
Résultat : $\langle f, g \rangle = \frac{1}{4}$, $\|f\| = \frac{1}{\sqrt{3}}$, $\|g\| = \frac{1}{\sqrt{5}}$. L'inégalité de Cauchy-Schwarz est vérifiée.
Exercice 4 : Soit $E$ un espace de Hilbert et $u, v \in E$ deux vecteurs non nuls. Montre que le vecteur $w = v - \frac{\langle v, u \rangle}{\|u\|^2} u$ est orthogonal à $u$. (Ceci est la première étape du procédé de Gram-Schmidt).
Correction :
Cet exercice te guide dans la construction d'une base orthogonale.
Méthode : On calcule le produit scalaire de $w$ et $u$ et on montre qu'il est nul.
Solution étape par étape :
Calculons $\langle w, u \rangle$ :
$\langle w, u \rangle = \left\langle v - \frac{\langle v, u \rangle}{\|u\|^2} u, u \right\rangle$
Par linéarité du produit scalaire par rapport au premier argument :
$\langle w, u \rangle = \langle v, u \rangle - \left\langle \frac{\langle v, u \rangle}{\|u\|^2} u, u \right\rangle$
Par linéarité (le scalaire sort) :
$\langle w, u \rangle = \langle v, u \rangle - \frac{\langle v, u \rangle}{\|u\|^2} \langle u, u \rangle$
On sait que $\langle u, u \rangle = \|u\|^2$. Donc :
$\langle w, u \rangle = \langle v, u \rangle - \frac{\langle v, u \rangle}{\|u\|^2} \|u\|^2$
$\langle w, u \rangle = \langle v, u \rangle - \langle v, u \rangle = 0$.
Ainsi, $w$ est bien orthogonal à $u$. Le dénominateur $\|u\|^2$ n'est pas nul car $u$ est non nul.
Point méthode : La bilinéarité et l'orthogonalité sont les clés pour manipuler les produits scalaires.
Résultat : Le vecteur $w = v - \frac{\langle v, u \rangle}{\|u\|^2} u$ est orthogonal à $u$.
Exercice 5 : Applique le procédé de Gram-Schmidt aux vecteurs $v_1 = (1, 1)$ et $v_2 = (1, -1)$ dans $\mathbb{R}^2$ muni du produit scalaire canonique pour obtenir une base orthonormale $(e_1, e_2)$.
Correction :
Nous allons transformer une base quelconque en une base orthonormale.
Méthode : On utilise le procédé de Gram-Schmidt.
Solution étape par étape :
Étape 1 : Construire $u_1$ à partir de $v_1$.
Prenons $u_1 = v_1 = (1, 1)$.
Normalisons $u_1$ pour obtenir $e_1$ :
$\|u_1\| = \|(1, 1)\| = \sqrt{1^2 + 1^2} = \sqrt{2}$.
$e_1 = \frac{u_1}{\|u_1\|} = \frac{1}{\sqrt{2}}(1, 1) = \left(\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}}\right)$.
Étape 2 : Construire $u_2$ orthogonal à $u_1$ (et donc à $e_1$), puis normaliser.
En utilisant l'idée de l'exercice 4 : $u_2 = v_2 - \frac{\langle v_2, u_1 \rangle}{\|u_1\|^2} u_1$.
Calculons $\langle v_2, u_1 \rangle = \langle (1, -1), (1, 1) \rangle = 1 \times 1 + (-1) \times 1 = 1 - 1 = 0$.
Puisque le produit scalaire est nul, $v_2$ est déjà orthogonal à $u_1$. Donc, $u_2 = v_2 = (1, -1)$.
Normalisons $u_2$ pour obtenir $e_2$ :
$\|u_2\| = \|(1, -1)\| = \sqrt{1^2 + (-1)^2} = \sqrt{2}$.
$e_2 = \frac{u_2}{\|u_2\|} = \frac{1}{\sqrt{2}}(1, -1) = \left(\frac{1}{\sqrt{2}}, -\frac{1}{\sqrt{2}}\right)$.
La base orthonormale obtenue est $\left\{ \left(\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}}\right), \left(\frac{1}{\sqrt{2}}, -\frac{1}{\sqrt{2}}\right) \right\}$.
Astuce : Si le produit scalaire intermédiaire est nul, cela simplifie grandement le calcul !
Résultat : La base orthonormale est $e_1 = \left(\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}}\right)$ et $e_2 = \left(\frac{1}{\sqrt{2}}, -\frac{1}{\sqrt{2}}\right)$.
Exercice 6 : Soit $E = L^2([-\pi, \pi])$ avec le produit scalaire $\langle f, g \rangle = \frac{1}{\pi} \int_{-\pi}^{\pi} f(x)g(x) dx$. La famille de fonctions $\{1, \cos(nx), \sin(nx) | n \in \mathbb{N}^*\}$ est orthogonale. Montre que la fonction $f(x) = x$ admet pour meilleure approximation par une combinaison linéaire de $\{1, \cos(x), \sin(x)\}$ la fonction $g(x) = 2\sin(x)$.
Correction :
Cet exercice touche à l'approximation de fonctions dans les espaces de Hilbert, un concept clé pour les séries de Fourier.
Méthode : La meilleure approximation d'un vecteur par un sous-espace est sa projection orthogonale sur ce sous-espace.
Solution étape par étape :
Le sous-espace engendré par $\{1, \cos(x), \sin(x)\}$ est le sous-espace des fonctions trigonométriques de période $2\pi$ de degré au plus 1.
La meilleure approximation de $f(x)=x$ par une fonction $g(x) = a \cdot 1 + b \cos(x) + c \sin(x)$ est la projection orthogonale de $f$ sur ce sous-espace.
La famille $\{1, \cos(nx), \sin(nx)\}$ est orthogonale. Pour trouver les coefficients de la projection, on utilise la formule :
$a = \frac{\langle f, 1 \rangle}{\|1\|^2}$, $b = \frac{\langle f, \cos(x) \rangle}{\|\cos(x)\|^2}$, $c = \frac{\langle f, \sin(x) \rangle}{\|\sin(x)\|^2}$
Calculons les normes au carré :
$\|1\|^2 = \frac{1}{\pi} \int_{-\pi}^{\pi} 1^2 dx = \frac{1}{\pi} [x]_{-\pi}^{\pi} = \frac{1}{\pi} (2\pi) = 2$.
$\|\cos(x)\|^2 = \frac{1}{\pi} \int_{-\pi}^{\pi} \cos^2(x) dx = \frac{1}{\pi} \int_{-\pi}^{\pi} \frac{1+\cos(2x)}{2} dx = \frac{1}{2\pi} \left[x + \frac{\sin(2x)}{2}\right]_{-\pi}^{\pi} = \frac{1}{2\pi} (2\pi) = 1$.
$\|\sin(x)\|^2 = \frac{1}{\pi} \int_{-\pi}^{\pi} \sin^2(x) dx = \frac{1}{\pi} \int_{-\pi}^{\pi} \frac{1-\cos(2x)}{2} dx = \frac{1}{2\pi} \left[x - \frac{\sin(2x)}{2}\right]_{-\pi}^{\pi} = \frac{1}{2\pi} (2\pi) = 1$.
Calculons les produits scalaires :
$\langle f, 1 \rangle = \frac{1}{\pi} \int_{-\pi}^{\pi} x \cdot 1 dx = \frac{1}{\pi} \left[\frac{x^2}{2}\right]_{-\pi}^{\pi} = \frac{1}{\pi} (0) = 0$. Donc $a=0$. ($f(x)=x$ est impaire, 1 est paire).
$\langle f, \cos(x) \rangle = \frac{1}{\pi} \int_{-\pi}^{\pi} x \cos(x) dx$. La fonction $x \cos(x)$ est impaire, donc son intégrale sur un intervalle symétrique est nulle. Ainsi, $\langle f, \cos(x) \rangle = 0$. Donc $b=0$. ($f(x)=x$ est impaire, $\cos(x)$ est paire).
$\langle f, \sin(x) \rangle = \frac{1}{\pi} \int_{-\pi}^{\pi} x \sin(x) dx$. La fonction $x \sin(x)$ est paire. On utilise l'intégration par parties : $\int u dv = uv - \int v du$. Soit $u=x$ et $dv=\sin(x)dx$. Alors $du=dx$ et $v=-\cos(x)$.
$\int_{-\pi}^{\pi} x \sin(x) dx = [-x \cos(x)]_{-\pi}^{\pi} - \int_{-\pi}^{\pi} (-\cos(x)) dx = (-\pi \cos(\pi) - (-\pi \cos(-\pi))) + \int_{-\pi}^{\pi} \cos(x) dx$
$= (-\pi(-1) - (-\pi(-1))) + [\sin(x)]_{-\pi}^{\pi} = (\pi - \pi) + (0 - 0) = 0$. Hmm, il y a une erreur dans le calcul de l'intégrale ou dans l'énoncé.
Révisons le calcul de $\langle f, \sin(x) \rangle$ :
$\langle f, \sin(x) \rangle = \frac{1}{\pi} \int_{-\pi}^{\pi} x \sin(x) dx$. Utilisons $\int_0^{\pi} x \sin(x) dx$ et multiplions par 2 car la fonction est paire.
$\int_0^{\pi} x \sin(x) dx = [-x \cos(x)]_0^{\pi} - \int_0^{\pi} (-\cos(x)) dx = (-\pi \cos(\pi) - 0) + [\sin(x)]_0^{\pi} = (-\pi (-1)) + (0 - 0) = \pi$.
Donc, $\langle f, \sin(x) \rangle = \frac{1}{\pi} \times 2 \times \pi = 2$. (Car l'intégrale sur $[-\pi, \pi]$ est le double de l'intégrale sur $[0, \pi]$ pour une fonction paire).
Alors, $c = \frac{2}{1} = 2$.
La meilleure approximation est donc $g(x) = 0 \cdot 1 + 0 \cdot \cos(x) + 2 \cdot \sin(x) = 2\sin(x)$.
Point méthode : La projection orthogonale donne la meilleure approximation dans un espace de Hilbert.
Résultat : La meilleure approximation de $f(x)=x$ par $a + b\cos(x) + c\sin(x)$ est $g(x) = 2\sin(x)$.
Exercice 7 : Soit $H$ un espace de Hilbert et $(e_n)_{n \in \mathbb{N}}$ une base hilbertienne (une suite total et orthogonale). Montre que pour tout $x \in H$, on a la formule de Parseval : $\|x\|^2 = \sum_{n=0}^{\infty} |\langle x, e_n \rangle|^2$.
Correction :
La formule de Parseval est un résultat fondamental qui lie la norme d'un vecteur à la somme des carrés des coefficients de sa décomposition sur une base hilbertienne.
Méthode : On utilise la définition d'une base hilbertienne et la convergence de la série.
Solution étape par étape :
Soit $x \in H$. Comme $(e_n)$ est une base hilbertienne, $x$ peut s'écrire comme une série convergente : $x = \sum_{n=0}^{\infty} \langle x, e_n \rangle e_n$. Les coefficients de cette série sont $c_n = \langle x, e_n \rangle$.
On veut calculer $\|x\|^2 = \langle x, x \rangle$.
$\|x\|^2 = \left\langle \sum_{n=0}^{\infty} c_n e_n, \sum_{m=0}^{\infty} c_m e_m \right\rangle$.
En raison de la convergence de la série et de la complétude de l'espace, on peut intervertir le produit scalaire et la somme (les séries convergent dans $H$).
$\|x\|^2 = \sum_{n=0}^{\infty} \sum_{m=0}^{\infty} c_n \overline{c_m} \langle e_n, e_m \rangle$.
Puisque $(e_n)$ est une base orthogonale, $\langle e_n, e_m \rangle = 0$ si $n \neq m$ et $\langle e_n, e_n \rangle = \|e_n\|^2$. Si c'est une base orthonormale, $\|e_n\|^2 = 1$. Ici, on suppose une base orthogonale, donc on va utiliser $\langle e_n, e_n \rangle = \|e_n\|^2$. Si c'est une base hilbertienne, on parle souvent de base orthonormale, donc on peut supposer $\|e_n\|=1$. Revérifions l'énoncé: "base hilbertienne (une suite total et orthogonale)". On peut donc utiliser le procédé de Gram-Schmidt pour la rendre orthonormale et appliquer Parseval pour les bases orthonormales, ou bien généraliser.
Pour une base orthogonale, on peut soit normaliser, soit adapter la formule.
Adaptation pour base orthogonale : $x = \sum_{n=0}^{\infty} \frac{\langle x, e_n \rangle}{\|e_n\|^2} e_n$. Les coefficients sont $d_n = \frac{\langle x, e_n \rangle}{\|e_n\|^2}$.
$\|x\|^2 = \sum_{n=0}^{\infty} \sum_{m=0}^{\infty} d_n \overline{d_m} \langle e_n, e_m \rangle$.
Si $n=m$, $\langle e_n, e_n \rangle = \|e_n\|^2$. Si $n \neq m$, $\langle e_n, e_m \rangle = 0$. Donc :
$\|x\|^2 = \sum_{n=0}^{\infty} d_n \overline{d_n} \|e_n\|^2 = \sum_{n=0}^{\infty} |d_n|^2 \|e_n\|^2$.
Remplaçons $d_n$ :
$\|x\|^2 = \sum_{n=0}^{\infty} \left| \frac{\langle x, e_n \rangle}{\|e_n\|^2} \right|^2 \|e_n\|^2 = \sum_{n=0}^{\infty} \frac{|\langle x, e_n \rangle|^2}{\|e_n\|^4} \|e_n\|^2 = \sum_{n=0}^{\infty} \frac{|\langle x, e_n \rangle|^2}{\|e_n\|^2}$.
Ce résultat est pour une base orthogonale. Si l'on suppose que "base hilbertienne" sous-entend "base orthonormale" (ce qui est très fréquent), alors $\|e_n\|=1$ et $\langle e_n, e_m \rangle = \delta_{nm}$.
Dans ce cas (base orthonormale) :
$\|x\|^2 = \left\langle \sum_{n=0}^{\infty} c_n e_n, \sum_{m=0}^{\infty} c_m e_m \right\rangle = \sum_{n=0}^{\infty} \sum_{m=0}^{\infty} c_n \overline{c_m} \langle e_n, e_m \rangle = \sum_{n=0}^{\infty} c_n \overline{c_n} \langle e_n, e_n \rangle = \sum_{n=0}^{\infty} |c_n|^2 \cdot 1 = \sum_{n=0}^{\infty} |c_n|^2$.
Avec $c_n = \langle x, e_n \rangle$, on obtient $\|x\|^2 = \sum_{n=0}^{\infty} |\langle x, e_n \rangle|^2$.
Point méthode : La formule de Parseval est une généralisation de la relation de Pythagore dans les espaces de Hilbert de dimension infinie.
Résultat : Pour une base hilbertienne orthonormale $(e_n)_{n \in \mathbb{N}}$, $\|x\|^2 = \sum_{n=0}^{\infty} |\langle x, e_n \rangle|^2$.
Exercice 8 : Soit $H = L^2([0, 2\pi])$ avec le produit scalaire $\langle f, g \rangle = \frac{1}{2\pi} \int_0^{2\pi} f(x)g(x) dx$. La famille $(e^{ikx})_{k \in \mathbb{Z}}$ forme une base hilbertienne de $H$. Soit $f(x) = x$. Calcule les coefficients de Fourier $c_k = \langle f, e^{ikx} \rangle$ pour $k \in \mathbb{Z}$ et vérifie la formule de Parseval pour $f(x)=x$.
Correction :
Cet exercice est une application directe de la formule de Parseval dans un espace de fonctions très concret, lié aux séries de Fourier.
Méthode : Calcul des coefficients de Fourier par intégration, puis application de la formule de Parseval.
Solution étape par étape :
Les coefficients de Fourier $c_k$ de $f(x)=x$ sont donnés par :
$c_k = \langle f, e^{ikx} \rangle = \frac{1}{2\pi} \int_0^{2\pi} x e^{-ikx} dx$.
Pour $k=0$: $c_0 = \frac{1}{2\pi} \int_0^{2\pi} x dx = \frac{1}{2\pi} \left[\frac{x^2}{2}\right]_0^{2\pi} = \frac{1}{2\pi} \frac{(2\pi)^2}{2} = \frac{2\pi}{2} = \pi$.
Pour $k \neq 0$, utilisons l'intégration par parties : $u=x$, $dv=e^{-ikx}dx$. Alors $du=dx$, $v=\frac{e^{-ikx}}{-ik}$.
$c_k = \frac{1}{2\pi} \left[ x \frac{e^{-ikx}}{-ik} \right]_0^{2\pi} - \frac{1}{2\pi} \int_0^{2\pi} \frac{e^{-ikx}}{-ik} dx$
$c_k = \frac{1}{2\pi} \left(2\pi \frac{e^{-ik(2\pi)}}{-ik} - 0 \right) - \frac{1}{2\pi} \left[ \frac{e^{-ikx}}{(-ik)^2} \right]_0^{2\pi}$
Comme $e^{-ik(2\pi)} = 1$ pour tout $k \in \mathbb{Z}$ :
$c_k = \frac{1}{2\pi} \left(\frac{2\pi}{-ik} \right) - \frac{1}{2\pi} \left(\frac{e^{-ik(2\pi)}}{-k^2} - \frac{e^0}{-k^2} \right)$
$c_k = \frac{1}{-ik} - \frac{1}{2\pi} \left(\frac{1}{-k^2} - \frac{1}{-k^2} \right) = \frac{i}{k} - 0 = \frac{i}{k}$.
Donc, les coefficients de Fourier sont $c_0 = \pi$ et $c_k = \frac{i}{k}$ pour $k \neq 0$. Attention, l'énoncé demande la norme $1/(2\pi)$. La base est $(e^{ikx})$. Il faut vérifier si la norme est 1. $\langle e^{ikx}, e^{imx} \rangle = \frac{1}{2\pi} \int_0^{2\pi} e^{i(k-m)x} dx$. Si $k=m$, c'est 1. Si $k \neq m$, c'est 0. Donc c'est une base orthonormale.
Vérifions maintenant la formule de Parseval : $\|f\|^2 = \sum_{k=-\infty}^{\infty} |c_k|^2$.
Calculons $\|f\|^2$ : $\|f\|^2 = \langle x, x \rangle = \frac{1}{2\pi} \int_0^{2\pi} x^2 dx = \frac{1}{2\pi} \left[\frac{x^3}{3}\right]_0^{2\pi} = \frac{1}{2\pi} \frac{(2\pi)^3}{3} = \frac{8\pi^3}{6\pi} = \frac{4\pi^2}{3}$.
Calculons la série :
$\sum_{k=-\infty}^{\infty} |c_k|^2 = |c_0|^2 + \sum_{k \neq 0} |c_k|^2 = |\pi|^2 + \sum_{k \in \mathbb{Z}, k \neq 0} \left|\frac{i}{k}\right|^2$
$= \pi^2 + \sum_{k \in \mathbb{Z}, k \neq 0} \frac{1}{k^2}$.
La somme $\sum_{k=1}^{\infty} \frac{1}{k^2} = \frac{\pi^2}{6}$. Et $\sum_{k=-\infty}^{-1} \frac{1}{k^2} = \sum_{j=1}^{\infty} \frac{1}{(-j)^2} = \sum_{j=1}^{\infty} \frac{1}{j^2} = \frac{\pi^2}{6}$.
Donc, $\sum_{k \in \mathbb{Z}, k \neq 0} \frac{1}{k^2} = \frac{\pi^2}{6} + \frac{\pi^2}{6} = \frac{\pi^2}{3}$.
La somme est donc $\pi^2 + \frac{\pi^2}{3} = \frac{3\pi^2 + \pi^2}{3} = \frac{4\pi^2}{3}$.
On retrouve bien $\|f\|^2 = \sum_{k=-\infty}^{\infty} |c_k|^2$. L'égalité est vérifiée.
Astuce : La sommation des séries de fonctions peut demander des connaissances sur les séries de fonctions classiques comme $\sum \frac{1}{k^2}$.
Résultat : $c_0 = \pi$, $c_k = \frac{i}{k}$ pour $k \neq 0$. La formule de Parseval est vérifiée : $\|f\|^2 = \frac{4\pi^2}{3} = \sum_{k=-\infty}^{\infty} |c_k|^2$.
Exercice 9 : Soit $H$ un espace de Hilbert et $F$ un sous-espace fermé. Montre que pour tout $x \in H$, il existe un unique couple $(y, z)$ tel que $y \in F$, $z \in F^{\perp}$ (l'orthogonal de $F$), et $x = y + z$. (Théorème de projection).
Correction :
Ce théorème est la pierre angulaire de la projection orthogonale dans les espaces de Hilbert. Il garantit l'existence et l'unicité de la décomposition d'un vecteur par rapport à un sous-espace fermé.
Méthode : On utilise la compacité de la boule unité fermée et le procédé de minimisation.
Existence :
Soit $x \in H$. Considérons le sous-espace $F$. Si $x \in F$, alors $y=x$ et $z=0$. $z=0$ est dans $F^{\perp}$ car $\langle 0, v \rangle = 0$ pour tout $v \in F$. Si $x \in F^{\perp}$, alors $y=0$ et $z=x$. Dans ce cas, $y=0 \in F$ et $z=x \in F^{\perp}$.
Supposons maintenant que $x \notin F$ et $x \notin F^{\perp}$. Soit $d = \inf_{y \in F} \|x-y\|$. Il existe une suite $(y_n)_{n \in \mathbb{N}}$ dans $F$ telle que $\|x-y_n\| \to d$.
Pour tout $\epsilon > 0$, on peut trouver $y \in F$ tel que $\|x-y\| \leq d + \epsilon$. La boule unité fermée $B(0, R)$ est compacte pour $R$ suffisamment grand. On peut supposer que $\|x-y_n\|$ est borné.
Utilisons le parallélogramme : $\|(x-y_m) - (x-y_n)\|^2 + \|(x-y_m) + (x-y_n)\|^2 = 2\|x-y_m\|^2 + 2\|x-y_n\|^2$.
$\|y_m - y_n\|^2 + \|2x - (y_m+y_n)\|^2 = 2\|x-y_m\|^2 + 2\|x-y_n\|^2$.
Soit $y_{mn} = \frac{y_m+y_n}{2}$. Comme $F$ est un sous-espace vectoriel fermé, $y_{mn} \in F$. Donc $\|x-y_{mn}\| \geq d$.
$\|x - \frac{y_m+y_n}{2}\|^2 = \frac{1}{4} \|2x - (y_m+y_n)\|^2$.
$\|y_m - y_n\|^2 = 2\|x-y_m\|^2 + 2\|x-y_n\|^2 - \|2x - (y_m+y_n)\|^2$.
$\|y_m - y_n\|^2 = 2\|x-y_m\|^2 + 2\|x-y_n\|^2 - 4\|x - \frac{y_m+y_n}{2}\|^2$.
Puisque $\|x-y_n\| \to d$, pour $m, n$ grands, $\|x-y_m\|^2 \approx d^2$ et $\|x-y_n\|^2 \approx d^2$. De plus, $\|x - \frac{y_m+y_n}{2}\|^2 \geq d^2$.
Pour $m, n$ assez grands, $2\|x-y_m\|^2 + 2\|x-y_n\|^2 - 4\|x - \frac{y_m+y_n}{2}\|^2 \approx 4d^2 - 4d^2 = 0$. Cela montre que $(y_n)$ est une suite de Cauchy dans $F$. Comme $F$ est fermé, elle converge vers un élément $y \in F$.
Par continuité de la norme, $\|x-y\| = d$. Donc $y$ est un élément de $F$ qui minimise la distance à $x$.
Posons $z = x-y$. On a $y \in F$ et $\|z\| = d$. Il reste à montrer que $z \in F^{\perp}$.
Pour tout $v \in F$, on a $y+v \in F$. Donc $\|x - (y+v)\| \geq d$.
$\|z-v\|^2 \geq d^2 = \|z\|^2$.
$\|z-v\|^2 = \langle z-v, z-v \rangle = \|z\|^2 - 2 \text{Re}\langle z, v \rangle + \|v\|^2 \geq \|z\|^2$.
Donc, $-2 \text{Re}\langle z, v \rangle + \|v\|^2 \geq 0$.
Si $v \in F$ et $v \neq 0$, on peut choisir $v'$ tel que $\langle z, v' \rangle$ soit réel et positif. Par exemple, si $z \neq 0$, on peut prendre $v' = \frac{z}{\|z\|}$. Non, $v'$ doit être dans $F$.
Considérons le cas où $H$ est complexe. Pour tout $\alpha \in \mathbb{C}$, $y+\alpha v \in F$, donc $\|x-(y+\alpha v)\| \geq d$.
$\|z-\alpha v\|^2 \geq d^2 = \|z\|^2$.
$\|z\|^2 - 2 \text{Re}(\overline{\alpha} \langle z, v \rangle) + \|\alpha v\|^2 \geq \|z\|^2$.
$-2 \text{Re}(\overline{\alpha} \langle z, v \rangle) + |\alpha|^2 \|v\|^2 \geq 0$.
Choisissons $\alpha = \overline{\langle z, v \rangle}$. Alors $|\alpha|^2 = |\langle z, v \rangle|^2$.
$-2 |\langle z, v \rangle|^2 + |\langle z, v \rangle|^2 \|v\|^2 \geq 0$.
$|\langle z, v \rangle|^2 (\|v\|^2 - 2) \geq 0$. Ceci n'est pas suffisant.
Revenons à : $-2 \text{Re}(\overline{\alpha} \langle z, v \rangle) + |\alpha|^2 \|v\|^2 \geq 0$.
Choisissons $\alpha = \lambda \overline{\langle z, v \rangle}$ pour $\lambda \in \mathbb{R}$.
$-2 \lambda |\langle z, v \rangle|^2 + \lambda^2 |\langle z, v \rangle|^2 \|v\|^2 \geq 0$.
Si $\langle z, v \rangle \neq 0$, on peut diviser par $|\langle z, v \rangle|^2$.
$ -2 \lambda + \lambda^2 \|v\|^2 \geq 0$.
Cette inégalité doit être vraie pour tout $\lambda$. Si $\|v\|^2 > 0$, pour $\lambda$ très grand, le terme $\lambda^2 \|v\|^2$ domine et l'inégalité n'est pas satisfaite. La seule façon pour que cela soit vrai pour tout $\lambda$ est que le coefficient de $\lambda^2$ soit nul ou que les autres termes soient nuls.
La seule possibilité est que $\langle z, v \rangle = 0$ pour tout $v \in F$. Donc $z \in F^{\perp}$.
Unicité :
Supposons $x = y_1 + z_1$ avec $y_1 \in F, z_1 \in F^{\perp}$ et $x = y_2 + z_2$ avec $y_2 \in F, z_2 \in F^{\perp}$.
Alors $y_1 + z_1 = y_2 + z_2$, donc $y_1 - y_2 = z_2 - z_1$.
Puisque $y_1, y_2 \in F$, $y_1 - y_2 \in F$.
Puisque $z_1, z_2 \in F^{\perp}$, $z_2 - z_1 \in F^{\perp}$.
Donc, $y_1 - y_2$ est à la fois dans $F$ et dans $F^{\perp}$. La seule façon pour qu'un vecteur appartienne aux deux est qu'il soit nul.
$y_1 - y_2 = 0 \implies y_1 = y_2$.
Alors $z_2 - z_1 = 0 \implies z_1 = z_2$.
L'unicité est prouvée.
Point méthode : Ce théorème est la base de la projection orthogonale. Il montre que tout vecteur peut être décomposé de manière unique en une partie "dans" un sous-espace fermé et une partie "orthogonale" à ce sous-espace.
Résultat : Pour tout $x \in H$ et tout sous-espace fermé $F$, il existe un unique couple $(y, z)$ tel que $y \in F$, $z \in F^{\perp}$ et $x = y + z$. Le vecteur $y$ est appelé la projection de $x$ sur $F$, notée $P_F(x)$.
Exercice 10 : Soit $H = \ell^2(\mathbb{N})$ l'espace des suites réelles $(x_n)_{n \in \mathbb{N}}$ telles que $\sum_{n=0}^{\infty} x_n^2 < \infty$, muni du produit scalaire $\langle x, y \rangle = \sum_{n=0}^{\infty} x_n y_n$. Soit $F$ le sous-espace des suites nulles à partir du rang $N$, c'est-à-dire $F = \{x \in \ell^2(\mathbb{N}) \mid x_n = 0 \text{ pour tout } n \geq N\}$. Montre que $F$ est un sous-espace fermé et détermine sa projection orthogonale et l'orthogonal $F^{\perp}$.
Correction :
Cet exercice t'amène à travailler dans un espace de suites, un autre exemple d'espace de Hilbert, et à comprendre la structure de ses sous-espaces fermés.
Méthode : Utilisation des propriétés des sous-espaces vectoriels, de la complétude de $\ell^2$, et du théorème de projection.
Solution étape par étape :
1. $F$ est un sous-espace vectoriel fermé :
Soient $x, y \in F$ et $\lambda \in \mathbb{R}$.
Pour tout $n \geq N$, $x_n = 0$ et $y_n = 0$. Donc $(\lambda x)_n = \lambda x_n = 0$ et $(x+y)_n = x_n + y_n = 0$. Ainsi, $\lambda x \in F$ et $x+y \in F$. $F$ est un sous-espace vectoriel.
Pour montrer que $F$ est fermé, on peut montrer que son complémentaire $F^c$ est ouvert, ou que $F$ est le noyau d'une application continue, ou encore que si une suite $(x^{(k)})_k$ dans $F$ converge vers $x$ dans $\ell^2$, alors $x \in F$.
Soit $(x^{(k)})_k$ une suite dans $F$ qui converge vers $x$ dans $\ell^2$. Cela signifie que $\sum_{n=0}^{\infty} (x^{(k)}_n - x_n)^2 \to 0$ quand $k \to \infty$. Pour chaque $k$, $x^{(k)}_n = 0$ pour $n \geq N$.
Pour tout $n \geq N$, $|x^{(k)}_n - x_n|^2 \leq \sum_{j=0}^{\infty} (x^{(k)}_j - x_j)^2 \to 0$. Donc $x^{(k)}_n \to x_n$. Comme $x^{(k)}_n = 0$, on a $x_n = 0$ pour tout $n \geq N$. Donc $x \in F$. $F$ est fermé.
2. Détermination de $F^{\perp}$ :
Soit $y \in F^{\perp}$. Alors $\langle x, y \rangle = 0$ pour tout $x \in F$.
Prenons pour $x$ les vecteurs de base canonique $e_i$ (la suite dont le $i$-ième terme est 1 et les autres 0). Pour $i < N$, $e_i \in F$.
Donc, pour tout $i \in \{0, 1, \dots, N-1\}$, $\langle e_i, y \rangle = 0$.
$\langle e_i, y \rangle = \sum_{n=0}^{\infty} (e_i)_n y_n = 1 \cdot y_i = y_i$.
Donc, $y_i = 0$ pour tout $i \in \{0, 1, \dots, N-1\}$.
Une suite $y \in \ell^2(\mathbb{N})$ dont les $N$ premières composantes sont nulles est dans $F^{\perp}$. Inversement, si $y \in F^{\perp}$, alors $y_i = 0$ pour $i < N$. Donc $y$ est de la forme $(0, \dots, 0, y_N, y_{N+1}, \dots)$. Cet espace est l'espace des suites qui sont nulles jusqu'au rang $N-1$. C'est le sous-espace engendré par $(e_n)_{n \geq N}$.
Donc $F^{\perp} = \{y \in \ell^2(\mathbb{N}) \mid y_n = 0 \text{ pour tout } n < N\}$.
3. Détermination de la projection $P_F(x)$ :
Soit $x \in \ell^2(\mathbb{N})$. Par le théorème de projection, $x = y + z$ où $y \in F$ et $z \in F^{\perp}$, et $y = P_F(x)$.
On a $x_n = y_n + z_n$.
Pour $n < N$, $y_n = 0$ (car $y \in F$) et $z_n$ est quelconque dans $\mathbb{R}$.
Pour $n \geq N$, $y_n$ est quelconque dans $\mathbb{R}$ et $z_n = 0$ (car $z \in F^{\perp}$).
Cela ne semble pas correct. $F$ est l'espace des suites nulles à partir du rang $N$. C'est un espace de dimension finie : il est engendré par $e_0, e_1, \dots, e_{N-1}$.
Donc $y \in F$ signifie que $y = \sum_{i=0}^{N-1} y_i e_i$. Sa projection $y$ sur $F$ est elle-même.
Pour trouver $y = P_F(x)$, il faut trouver l'élément $y \in F$ le plus proche de $x$.
$y$ est de la forme $(y_0, y_1, \dots, y_{N-1}, 0, 0, \dots)$.
On cherche à minimiser $\|x-y\|^2 = \sum_{n=0}^{\infty} (x_n - y_n)^2$.
$\|x-y\|^2 = \sum_{n=0}^{N-1} (x_n - y_n)^2 + \sum_{n=N}^{\infty} (x_n - 0)^2$.
Pour minimiser cette somme, il faut minimiser $\sum_{n=0}^{N-1} (x_n - y_n)^2$. Cette minimisation est atteinte lorsque $y_n = x_n$ pour $n=0, \dots, N-1$.
Donc, $y = (x_0, x_1, \dots, x_{N-1}, 0, 0, \dots)$. Cette suite $y$ est bien dans $F$.
Alors $z = x - y = (0, 0, \dots, 0, x_N, x_{N+1}, \dots)$. Cette suite $z$ est bien dans $F^{\perp}$ (ses premières $N$ composantes sont nulles).
La projection $P_F(x)$ est donc la suite $(x_0, x_1, \dots, x_{N-1}, 0, 0, \dots)$.
Astuce : Dans un espace de Hilbert, la projection sur un sous-espace de dimension finie est trouvée en cherchant à minimiser la distance, ce qui revient à rendre les composantes sur la base du sous-espace égales.
Résultat : $F$ est un sous-espace fermé. $F^{\perp}$ est l'espace des suites $(y_n)$ avec $y_n = 0$ pour $n < N$. La projection de $x$ sur $F$ est $P_F(x) = (x_0, x_1, \dots, x_{N-1}, 0, 0, \dots)$.
Comment ORBITECH Peut T'aider
ORBITECH AI Academy est là pour te soutenir dans ta réussite académique. Nos outils et ressources sont conçus pour rendre l'apprentissage des mathématiques, et particulièrement des concepts complexes comme les espaces de Hilbert, plus accessible et efficace.
- Accès à des exercices interactifs avec des corrections détaillées, comme ceux-ci.
- Des explications claires et concises adaptées au programme officiel.
- Un suivi personnalisé pour identifier tes points forts et tes axes d'amélioration.
- La possibilité de tester tes connaissances avec des quiz et des examens blancs.