11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme
11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme 11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme
Produit scalaire. Chap. 11 : cours complet. 1. Formes bilinéaires symétriques, formes quadratiques. Définition 1.1 : forme bilinéaire symétrique Théorème 1.1 : espace vectoriel des formes bilinéaires sur un -espace vectoriel Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée Définition 1.3 : forme bilinéaire symétrique positive Théorème 1.3 : inégalité de Cauchy-Schwarz, cas réel 2. Produit scalaire réel ou complexe. Définition 2.1 : produit scalaire sur un -espace vectoriel, espace préhilbertien réel Théorème 2.1 : exemples classiques dans le cas réel Définition 2.2 : produit scalaire hermitien sur un -espace vectoriel, espace préhilbertien complexe Théorème 2.2 : exemples classiques dans le cas complexe Théorème 2.3 : inégalité de Cauchy-Schwarz dans le cas complexe Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne, définie) Théorème 2.4 : équivalence non dégénérée ⇔ définie Théorème 2.5 : cas d’égalité dans l’inégalité de Cauchy-Schwarz pour un produit scalaire Définition 2.4 et théorème 2.6 : norme et distance associée à un produit scalaire, inégalité de Minkowski Théorème 2.7 : égalités dites « de polarisation » 3. Orthogonalité. Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale, orthonormale Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale Théorème 3.2 : de Pythagore Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation de Gram-Schmidt Définition 3.2 : sous-espaces vectoriels orthogonaux Théorème 3.4 : cas de sous-espaces vectoriels de dimension finie Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux Théorème 3.6 : caractérisation en dimension finie des supplémentaires orthogonaux Théorème 3.7 et définition 3.5 : somme directe orthogonale de sous-espaces vectoriels 4. Espaces euclidiens et hermitiens. Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien Théorème 4.1 : existence de bases orthonormales dans les espaces euclidiens et hermitiens Théorème 4.2 : de la base incomplète orthogonale ou orthonormale Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual Théorème 4.4 : caractérisation matricielle des bases orthogonales ou orthonormales Théorème 4.5 : expression matricielle du produit scalaire, cas réel Théorème 4.6 : expression matricielle du produit scalaire, cas complexe 5. Projections orthogonales. Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel de dimension finie Théorème 5.2 : cas d’un hyperplan d’un espace euclidien Théorème 5.3 : expression de la projection orthogonale sur un sous-espace vectoriel de dimension finie Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel de dimension finie Théorème 5.5 : inégalité de Bessel 6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien. Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien Théorème 6.2 : involution : u a u* Définition 6.2 : endomorphisme autoadjoint Théorème 6.3 : caractérisation matricielle des endomorphismes autoadjoints Théorème 6.4 : espace vectoriel des endomorphismes autoadjoints Théorème 6.5 : caractérisation par leur adjoint des projecteurs orthogonaux d’un espace vectoriel euclidien Chapitre 11 : Produit scalaire – cours complet. - 1 -
- Page 2 and 3: 7. Endomorphismes orthogonaux et ma
- Page 4 and 5: Démonstration : Soit ψ la fonctio
- Page 6 and 7: Pour t réel, on pose : ψ(t) = ϕ(
- Page 8 and 9: Démonstration : Comme les combinai
- Page 10 and 11: Définition 3.3 et théorème 3.5 :
- Page 12 and 13: Démonstration : Dans le cas géné
- Page 14 and 15: Soit (e1, …, ep) une base orthono
- Page 16 and 17: Démonstration : Fixons à nouveau
- Page 18 and 19: en utilisant la remarque faite dans
- Page 20 and 21: scalaire canonique de n , puisque
- Page 22 and 23: ⎛ ⎛ θ ⎞ ⎛ θ ⎞⎞ Il est
<strong>Produit</strong> <strong>scalaire</strong>. Chap. <strong>11</strong> : cours <strong>complet</strong>.<br />
1. Formes bilinéaires symétriques, formes quadratiques.<br />
Définition 1.1 : forme bilinéaire symétrique<br />
Théorème 1.1 : espace vectoriel <strong>de</strong>s formes bilinéaires sur un -espace vectoriel<br />
Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique<br />
Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée<br />
Définition 1.3 : forme bilinéaire symétrique positive<br />
Théorème 1.3 : inégalité <strong>de</strong> Cauchy-Schwarz, cas réel<br />
2. <strong>Produit</strong> <strong>scalaire</strong> réel ou complexe.<br />
Définition 2.1 : produit <strong>scalaire</strong> sur un -espace vectoriel, espace préhilbertien réel<br />
Théorème 2.1 : exemples classiques dans le cas réel<br />
Définition 2.2 : produit <strong>scalaire</strong> hermitien sur un -espace vectoriel, espace préhilbertien complexe<br />
Théorème 2.2 : exemples classiques dans le cas complexe<br />
Théorème 2.3 : inégalité <strong>de</strong> Cauchy-Schwarz dans le cas complexe<br />
Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne, définie)<br />
Théorème 2.4 : équivalence non dégénérée ⇔ définie<br />
Théorème 2.5 : cas d’égalité dans l’inégalité <strong>de</strong> Cauchy-Schwarz pour un produit <strong>scalaire</strong><br />
Définition 2.4 et théorème 2.6 : norme et distance associée à un produit <strong>scalaire</strong>, inégalité <strong>de</strong> Minkowski<br />
Théorème 2.7 : égalités dites « <strong>de</strong> polarisation »<br />
3. Orthogonalité.<br />
Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale, orthonormale<br />
Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale<br />
Théorème 3.2 : <strong>de</strong> Pythagore<br />
Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation <strong>de</strong> Gram-Schmidt<br />
Définition 3.2 : sous-espaces vectoriels orthogonaux<br />
Théorème 3.4 : cas <strong>de</strong> sous-espaces vectoriels <strong>de</strong> dimension finie<br />
Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel<br />
Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux<br />
Théorème 3.6 : caractérisation en dimension finie <strong>de</strong>s supplémentaires orthogonaux<br />
Théorème 3.7 et définition 3.5 : somme directe orthogonale <strong>de</strong> sous-espaces vectoriels<br />
4. Espaces euclidiens et hermitiens.<br />
Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien<br />
Théorème 4.1 : existence <strong>de</strong> bases orthonormales dans les espaces euclidiens et hermitiens<br />
Théorème 4.2 : <strong>de</strong> la base incomplète orthogonale ou orthonormale<br />
Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual<br />
Théorème 4.4 : caractérisation matricielle <strong>de</strong>s bases orthogonales ou orthonormales<br />
Théorème 4.5 : expression matricielle du produit <strong>scalaire</strong>, cas réel<br />
Théorème 4.6 : expression matricielle du produit <strong>scalaire</strong>, cas complexe<br />
5. Projections orthogonales.<br />
Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel <strong>de</strong> dimension finie<br />
Théorème 5.2 : cas d’un hyperplan d’un espace euclidien<br />
Théorème 5.3 : expression <strong>de</strong> la projection orthogonale sur un sous-espace vectoriel <strong>de</strong> dimension finie<br />
Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel <strong>de</strong> dimension finie<br />
Théorème 5.5 : inégalité <strong>de</strong> Bessel<br />
6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien.<br />
Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien<br />
Théorème 6.2 : involution : u a u*<br />
Définition 6.2 : endomorphisme autoadjoint<br />
Théorème 6.3 : caractérisation matricielle <strong>de</strong>s endomorphismes autoadjoints<br />
Théorème 6.4 : espace vectoriel <strong>de</strong>s endomorphismes autoadjoints<br />
Théorème 6.5 : caractérisation par leur adjoint <strong>de</strong>s projecteurs orthogonaux d’un espace vectoriel<br />
euclidien<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 1 -
7. Endomorphismes orthogonaux et matrices orthogonales.<br />
Définition 7.1 et théorème 7.1 : endomorphisme orthogonal dans un espace vectoriel euclidien<br />
Théorème 7.2 : bijectivité <strong>de</strong>s endomorphismes orthogonaux en dimension finie<br />
Théorème 7.3 : caractérisation par leur adjoint <strong>de</strong>s endomorphismes orthogonaux<br />
Définition 7.2 : matrice orthogonale<br />
Théorème 7.4 : caractérisation <strong>de</strong>s matrices orthogonales par leurs vecteurs lignes ou colonnes<br />
Théorème 7.5 : caractérisation matricielle <strong>de</strong>s endomorphismes orthogonaux<br />
Théorème 7.6 et définition 7.3 : les groupes (O(E),o) et (O(n),×)<br />
Définition 7.4 : isométries d’un espace vectoriel euclidien, isométries positives et négatives<br />
Théorème 7.7 : matrice <strong>de</strong> passage entre bases orthonormales<br />
8. Réduction <strong>de</strong>s endomorphismes autoadjoints d’un espace vectoriel euclidien et <strong>de</strong>s matrices<br />
symétriques réelles.<br />
Théorème 8.1 : valeurs propres d’une matrice symétrique réelle, d’un endomorphisme autoadjoint<br />
Théorème 8.2 : orthogonalité <strong>de</strong>s espaces propres d’un endomorphisme autoadjoint<br />
Théorème 8.3 : diagonalisabilité <strong>de</strong>s endomorphismes autoadjoints<br />
Théorème 8.4 : diagonalisabilité <strong>de</strong>s matrices symétriques réelles<br />
Théorème 8.5 et définition 8.1 : endomorphisme autoadjoint associé à une forme bilinéaire symétrique<br />
Théorème 8.6 : réduction <strong>de</strong>s formes bilinéaires symétriques<br />
9. Réduction <strong>de</strong>s matrices <strong>de</strong> O(2) et O(3), endomorphismes orthogonaux en dimension 2 ou 3.<br />
Théorème 9.1 : éléments <strong>de</strong> O(2) : matrices orthogonales 2×2<br />
Théorème 9.2 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 2<br />
Théorème 9.3 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 3<br />
Théorème 9.4 : éléments <strong>de</strong> O(3) : matrices orthogonales 3×3<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 2 -
<strong>Produit</strong> <strong>scalaire</strong>. Chap. <strong>11</strong> : cours <strong>complet</strong>.<br />
1. Formes bilinéaires symétriques, formes quadratiques.<br />
Définition 1.1 : forme bilinéaire symétrique<br />
Soit E un -espace vectoriel.<br />
On dit que ϕ est une forme bilinéaire symétrique sur E si et seulement si :<br />
• ϕ est une application <strong>de</strong> E×E dans ,<br />
• ϕ est bilinéaire :<br />
∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />
ϕ(λ.x + μ.y,x’) = λ.ϕ(x,x’) + μ.ϕ(y,x’), et :<br />
ϕ(x,λ.x’ + μ.y’) = λ.ϕ(x,x’) + μ.ϕ(x,y’),<br />
• ϕ est symétrique : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ(y,x).<br />
Théorème 1.1 : espace vectoriel <strong>de</strong>s formes bilinéaires sur un -espace vectoriel<br />
Soit E un -espace vectoriel.<br />
Les lois suivantes permettent <strong>de</strong> munir l’ensemble <strong>de</strong>s formes bilinéaires L2(E,) sur E d’une structure<br />
<strong>de</strong> -espace vectoriel :<br />
• ∀ (ϕ,ψ) ∈ L2(E,) 2 , (ϕ + ψ) est définie par : ∀ (x,y) ∈ E 2 , (ϕ + ψ)(x,y) = ϕ(x,y) + ψ(x,y),<br />
• ∀ ϕ ∈ L2(E,), ∀ λ ∈ , λ.ϕ est définie par : ∀ (x,y) ∈ E 2 , (λ.ϕ) (x,y) = λ.ϕ(x,y).<br />
Démonstration :<br />
Il est immédiat que ce sont bien <strong>de</strong>s lois internes et externes sur L2(E,), puisque les objets que l’on<br />
obtient sont bien <strong>de</strong>s éléments <strong>de</strong> cet ensemble.<br />
Par ailleurs, les propriétés habituelles qui en font un espace vectoriel sont bien vérifiées.<br />
Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique<br />
Soit E un -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique définie sur E.<br />
L’application φ définie sur E par : ∀ x ∈ E, φ(x) = ϕ(x,x), est appelée forme quadratique associée à ϕ.<br />
Plus généralement, on dit que φ est une forme quadratique sur E si et seulement si il existe une forme<br />
bilinéaire symétrique ϕ définie sur E, telle que φ soit la forme quadratique associée à ϕ sur E.<br />
Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée<br />
Soit E un -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique définie sur E, et φ sa forme quadratique associée.<br />
Alors : ∀ (x,y) ∈ E 2 1 1<br />
, ϕ(x,y) = . [φ(x + y) – φ(x) – φ(y)] = .[φ(x + y) – φ(x – y)].<br />
2<br />
4<br />
Démonstration :<br />
Soient donc x et y dans E.<br />
On a alors : φ(x+y) = ϕ(x+y,x+y) = ϕ(x,x) + 2.ϕ(x,y) + ϕ(y,y) = φ(x) + 2.ϕ(x,y) + φ(y), d’où le premier point.<br />
De même : φ(x – y) = φ(x) – 2.ϕ(x,y) + φ(y), et on en déduit la <strong>de</strong>uxième égalité.<br />
Définition 1.3 : forme bilinéaire symétrique positive<br />
Soit E un -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique définie sur E.<br />
On dit que ϕ est positive si et seulement si : ∀ x a E, ϕ(x,x) ≥ 0, soit encore : φ(x) ≥ 0, pour la forme<br />
quadratique φ associée à ϕ.<br />
Théorème 1.3 : inégalité <strong>de</strong> Cauchy-Schwarz, cas réel<br />
Soit E un -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique sur E.<br />
Si ϕ est <strong>de</strong> plus positive, alors : ∀ (x,y) ∈ E², ϕ ( x,<br />
y)<br />
≤ ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 3 -
Démonstration :<br />
Soit ψ la fonction définie <strong>de</strong> dans par : ∀ t ∈ , ψ(t) = ϕ(x + t.y,x + t.y).<br />
Puisque ϕ est positive, ψ est également à valeurs dans + .<br />
Par ailleurs : ∀ t ∈ , ψ(t) = ϕ(x,x) + 2.t.ϕ(x,y) + t 2 .ϕ(y,y), en utilisant la bilinéarité et la symétrie <strong>de</strong> ϕ.<br />
Distinguons alors <strong>de</strong>ux cas :<br />
• ϕ(y,y) = 0.<br />
Dans ce cas, ψ est une fonction affine <strong>de</strong> t qui reste positive. Elle est donc constante et : ϕ(x,y) = 0.<br />
On a bien alors : 0 = ϕ ( x,<br />
y)<br />
≤ ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
= 0.<br />
• ϕ(y,y) ≠ 0, et donc : ϕ(y,y) > 0.<br />
Dans ce cas ψ est une fonction polynomiale du second <strong>de</strong>gré.<br />
Comme elle reste positive, elle admet au plus une racine réelle (double) et son discriminant est négatif<br />
ou nul, soit : Δ = ϕ(x,y) 2 – ϕ(x,x).ϕ(y,y) ≤ 0, ce qui donne à nouveau : ϕ ( x,<br />
y)<br />
≤ ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
.<br />
2. <strong>Produit</strong> <strong>scalaire</strong> réel ou complexe.<br />
Définition 2.1 : produit <strong>scalaire</strong> sur un -espace vectoriel, espace préhilbertien réel<br />
Soit E un -espace vectoriel.<br />
On dit que ϕ est un produit <strong>scalaire</strong> sur E si et seulement si ϕ est une forme bilinéaire symétrique<br />
positive, non dégénérée, soit encore :<br />
• ϕ est une application <strong>de</strong> E×E dans ,<br />
• ϕ est bilinéaire :<br />
∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />
ϕ(λ.x + μ.y,x’) = λ.ϕ(x,x’) + μ.ϕ(y,x’), et :<br />
ϕ(x,λ.x’ + μ.y’) = λ.ϕ(x,x’) + μ.ϕ(x,y’),<br />
• ϕ est symétrique : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ(y,x),<br />
• ϕ est positive : ∀ x ∈ E, ϕ(x,x) ≥ 0,<br />
• ϕ est non dégénérée : ∀ x ∈ E, (∀ y ∈ E, ϕ(x,y) = 0) ⇒ (x = 0).<br />
On dit alors que (E,ϕ) est un espace préhilbertien réel.<br />
Théorème 2.1 : exemples classiques dans le cas réel<br />
Les applications suivantes définissent <strong>de</strong>s produits <strong>scalaire</strong>s sur les espaces vectoriels indiqués :<br />
• ∀ (x,y) ∈ ( n ) 2 n<br />
, x = (x1, …, xn), y = (y1, …, yn), (x,y) a∑ x i. yi<br />
, dans <br />
i=<br />
1<br />
n .<br />
• ∀ (f,g) ∈ (C 0 ([a,b],) 2 , (f,g) a ∫ b<br />
f ( t).<br />
g(<br />
t).<br />
dt , dans C<br />
a<br />
0 ([a,b], ), où [a,b] est un segment inclus dans .<br />
Démonstration :<br />
• L’application proposée (notons-la (.|.)) est correctement définie <strong>de</strong> ( n ) 2 dans .<br />
Il est clair qu’elle est symétrique puisque : ∀ (x,y) ∈ ( n ) 2 n<br />
, (x|y) = ∑<br />
n<br />
i.<br />
yi<br />
= ∑<br />
i=<br />
1<br />
i=<br />
1<br />
x y . x = (y|x).<br />
Elle est <strong>de</strong> plus linéaire par rapport à sa première variable puisque :<br />
∀ x ∈ n , ∀ (y,y’) ∈ n , ∀ (λ,λ’) ∈ 2 , (x|λ.y +λ’.y’) = λ.(x|y) + λ’.(x|y’), sans difficulté.<br />
Enfin, elle est non dégénérée, puisque si pour : x ∈ n , on a : ∀ y ∈ n , (x|y) = 0, en particulier pour :<br />
y = x, et cela donne : ∑ =<br />
n<br />
2<br />
x i = 0, et tous les xi étant positifs, on conclut à : ∀ 1 ≤ i ≤ n, xi = 0, soit : x = 0.<br />
i 1<br />
• De même, l’application (notée encore (.|.)) est correctement définie <strong>de</strong> E 2 dans , (puisque, en notant<br />
E l’espace vectoriel C 0 ([a,b],)), pour tout : (f,g) ∈ E 2 , f.g est continue est à valeurs réelles sur [0,1].<br />
De plus, elle est symétrique <strong>de</strong> façon immédiate.<br />
Puis elle est linéaire par rapport à sa <strong>de</strong>uxième variable (du fait <strong>de</strong> la linéarité <strong>de</strong> l’intégrale sur [a,b]).<br />
2<br />
Enfin, si pour : f ∈ E, on a : (f|g) = 0, en particulier pour : g = f, ce qui donne : f ( t)<br />
. dt = 0 .<br />
Mais comme la fonction f 2 est continue et positive sur [a,b], on en déduit bien que : f 2 = 0, puis : f = 0.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 4 -<br />
∫<br />
a<br />
b<br />
i<br />
i
Définition 2.2 : produit <strong>scalaire</strong> hermitien sur un -espace vectoriel, espace préhilbertien complexe<br />
Soit E un -espace vectoriel.<br />
On dit que ϕ est un produit <strong>scalaire</strong> hermitien sur E si et seulement si :<br />
• ϕ est une application <strong>de</strong> E×E dans ,<br />
• ϕ est sesquilinéaire (linéaire à droite, semi-linéaire à gauche) :<br />
∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />
ϕ(λx + μy,x’) = λ .ϕ(x,x’) + μ .ϕ(y,x’), et :<br />
ϕ(x,λx’ + μy’) = λ.ϕ(x,x’) + μ.ϕ(x,y’)<br />
• ϕ est à symétrie hermitienne : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ ( y,<br />
x)<br />
,<br />
• ϕ est positive : ∀ x ∈ E, ϕ(x,x) ≥ 0,<br />
• ϕ est non dégénérée : ∀ x ∈ E, (∀ y ∈ E, ϕ(x,y) = 0) ⇒ (x = 0).<br />
On dit alors que (E,ϕ) est un espace préhilbertien complexe.<br />
Théorème 2.2 : exemples classiques dans le cas complexe<br />
Les applications suivantes définissent <strong>de</strong>s produits <strong>scalaire</strong>s hermitiens sur les espaces vectoriels<br />
indiqués :<br />
• ∀ (x,y) ∈ ( n ) 2 n<br />
, x = (x1, …, xn), y = (y1, …, yn), (x,y) a ∑ x i. yi<br />
, dans <br />
i=<br />
1<br />
n .<br />
• ∀ (f,g) ∈ (C 0 ([a,b],) 2 , (f,g) a ∫ b<br />
f ( t)<br />
. g(<br />
t).<br />
dt , dans C<br />
a<br />
0 ([a,b], ), où [a,b] est un segment inclus dans .<br />
• ∀ (f,g) ∈ (C 0 2π(,)) 2 , (f,g) a ∫ π 2<br />
f ( t)<br />
. g(<br />
t).<br />
dt , dans C<br />
0<br />
0 2π(,), espace <strong>de</strong>s fonctions définies,<br />
continues et 2.π-périodiques, <strong>de</strong> dans .<br />
Démonstration :<br />
Les démonstrations vont s’inspirer <strong>de</strong>s démonstrations du théorème 2.1.<br />
• Pour le premier exemple, il est clair que l’application est correctement définie <strong>de</strong> n × n dans .<br />
Puis elle est à symétrie hermitienne car : ∀ (x,y) ∈ ( n ) 2 n<br />
, (y|x) = ∑ yi<br />
. x i<br />
n<br />
= ∑ x i.<br />
yi<br />
= ( x y)<br />
i=<br />
1<br />
i=<br />
1<br />
Elle est <strong>de</strong> plus linéaire par rapport à sa <strong>de</strong>uxième variable (comme dans le cas réel).<br />
Enfin, si pour : x ∈ n , on a : ∀ y ∈ n , (x|y) = 0, en particulier pour : y = x, ce qui conduit à :<br />
n<br />
∑<br />
i=<br />
1<br />
x<br />
2<br />
i<br />
= 0 , et comme tous les modules sont <strong>de</strong>s réels, finalement : ∀ 1 ≤ i ≤ n, |xi| = 0, soit : x = 0.<br />
• Dans ce <strong>de</strong>uxième cas, l’application proposée est correctement définie <strong>de</strong> l’espace E proposé dans ,<br />
puisque : ∀ (f,g) ∈ E 2 , f . g est définie et continue <strong>de</strong> [a,b] dans .<br />
Puis elle est encore à symétrie hermitienne car : ∀ (f,g) ∈ E 2 b<br />
, ∫ ( t)<br />
. f ( t).<br />
dt<br />
a ∫a<br />
= b<br />
g f ( t)<br />
. g(<br />
t).<br />
dt .<br />
Elle est également clairement linéaire par rapport à sa <strong>de</strong>uxième variable.<br />
Enfin, si pour : f ∈ E, on a : ∀ g ∈ E, ∫ b<br />
f ( t)<br />
. g(<br />
t).<br />
dt = 0, en particulier pour : g = f, ce qui donne :<br />
∫ b<br />
a<br />
a<br />
2<br />
f ( t)<br />
. dt = 0, et |f| 2 étant une fonction continue et positive sur [a,b], on en déduit que :<br />
∀ t ∈ [a,b], |f(t)| = 0, soit finalement : f = 0.<br />
• Pour ce troisième cas, les trois premiers points à vérifier sont i<strong>de</strong>ntiques à ceux qu’on vient <strong>de</strong> voir.<br />
Pour le quatrième, sous la même hypothèse que précé<strong>de</strong>mment, on constate que : ∀ t ∈ [0,2.π], f(t) = 0.<br />
f est donc nulle sur [0,2.π], mais étant <strong>de</strong> plus 2.π-périodique, elle est nulle sur , et : f = 0.<br />
Théorème 2.3 : inégalité <strong>de</strong> Cauchy-Schwarz dans le cas complexe<br />
Soit E un -espace vectoriel.<br />
Soit ϕ une forme sesquilinéaire, à symétrie hermitienne, positive sur E.<br />
Alors : ∀ (x,y) ∈ E², ϕ ( x,<br />
y)<br />
≤ ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
.<br />
Démonstration :<br />
Soit α un réel fixé dont on précisera la valeur plus tard.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 5 -<br />
.
Pour t réel, on pose : ψ(t) = ϕ(x + t.e -iα .y|x + t.e -iα .y).<br />
Comme ϕ est positive, ψ est également à valeurs positives.<br />
De plus, ϕ étant également à symétrie hermitienne et sesquilinéaire, on peut écrire :<br />
∀ t ∈ , ψ(t) = ϕ(x,x) + t.e iα ϕ(y,x) + t.e -iα .ϕ(x,y) + t 2 .ϕ(y,y).<br />
Distinguons alors (encore) <strong>de</strong>ux cas :<br />
• si : ϕ(x,y) = 0, l’inégalité <strong>de</strong> Cauchy-Schwarz est vérifiée puisque ϕ est positive.<br />
• si : ϕ(x,y) ≠ 0, notons alors : ϕ(x,y) = ρ.e iθ , avec : ρ > 0, et : θ ∈ , et choisissons : α = θ.<br />
On constate alors que : ∀ t ∈ , ψ(t) = ϕ(x,x) + 2.t.ρ + t 2 .ϕ(y,y).<br />
Alors comme dans le cas réel, on constate cependant ici que ϕ(y,y) ne peut être nul (fonction affine avec<br />
ρ non nul) et donc comme fonction polynomiale du second <strong>de</strong>gré, on a : Δ = ρ 2 – ϕ(x,x).ϕ(y,y) ≤ 0, soit à<br />
nouveau : ϕ ( x,<br />
y)<br />
≤ ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
.<br />
Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne,<br />
définie)<br />
Soit E un - ou -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique sur E, ou sesquilinéaire à symétrie hermitienne.<br />
On dit que la forme ϕ est définie si et seulement si : ∀ x ∈ E, (ϕ(x,x) = 0) ⇒ (x = 0).<br />
Théorème 2.4 : équivalence non dégénérée ⇔⇔⇔⇔ définie<br />
Soit E un - ou -espace vectoriel.<br />
Soit ϕ une forme bilinéaire symétrique sur E, ou sesquilinéaire à symétrie hermitienne.<br />
Alors ϕ est non dégénérée si et seulement si ϕ est définie.<br />
On peut donc remplacer « non dégénérée » par « définie » dans la définition d’un produit <strong>scalaire</strong>.<br />
Démonstration :<br />
On travaille par double implication.<br />
• [⇒]<br />
Si ϕ est non dégénérée, soit : x ∈ E, tel que : ϕ(x,x) = 0.<br />
On constate alors, d’après l’inégalité <strong>de</strong> Cauchy-Schwarz, que : ∀ y ∈ E, ϕ(x,y) = 0.<br />
Or ϕ étant non dégénérée, on en déduit que : x = 0, et ϕ est définie.<br />
• [⇐]<br />
Si ϕ est maintenant supposée définie et si x est tel que : ∀ y ∈ E, ϕ(x,y) = 0, alors en particulier pour :<br />
y = x, et on en déduit que : ϕ(x,x) = 0.<br />
Or ϕ étant supposée définie, on conclut bien que : x = 0.<br />
Théorème 2.5 : cas d’égalité dans l’inégalité <strong>de</strong> Cauchy-Schwarz pour un produit <strong>scalaire</strong><br />
Soit (E,ϕ) un espace préhilbertien, réel ou complexe.<br />
Alors : ∀ (x,y) ∈ E 2 , ϕ ( x,<br />
y)<br />
= ϕ(<br />
x,<br />
x)<br />
. ϕ(<br />
y,<br />
y)<br />
, si et seulement si (x,y) est liée.<br />
Démonstration :<br />
Si l’on reprend la démonstration <strong>de</strong> l’inégalité <strong>de</strong> Cauchy-Schwarz (dans le cas réel ou complexe), on<br />
constate que, si cette inégalité <strong>de</strong>vient une égalité, alors :<br />
• dans le cas où : ϕ(y,y) = 0, alors y est nul puisque ϕ comme produit <strong>scalaire</strong> est une forme définie,<br />
• dans le cas où : ϕ(y,y) ≠ 0, cela signifie dans les <strong>de</strong>ux cas (réel et complexe) que le discriminant <strong>de</strong> la<br />
fonction qui avait servi d’intermédiaire est nul, et donc que le trinôme noté ψ admet une racine double.<br />
Autrement dit, dans les <strong>de</strong>ux cas : ∃ λ ∈ (ou : λ.e -iα ), ϕ(x + λ.y,x + λ.y) = 0, et donc le vecteur (x + λ.y)<br />
est nul, ou : 1.x + λ.y = 0.<br />
Dans tous les cas, on constate bien que (x,y) est liée.<br />
Définition 2.4 et théorème 2.6 : norme et distance associée à un produit <strong>scalaire</strong>, inégalité <strong>de</strong><br />
Minkowski<br />
Soit (E,ϕ) un espace préhilbertien, réel ou complexe.<br />
Alors l’application N définie par : ∀ x ∈ E, x a N(x) = ϕ ( x,<br />
x)<br />
, est une norme sur E, appelée norme<br />
associée au produit <strong>scalaire</strong> ϕ.<br />
De même, l’application d définie sur E 2 par : ∀ (x,y) ∈ E 2 , d(x,y) = N(x – y), est appelée distance<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 6 -
associée à la norme N (ou au produit <strong>scalaire</strong> ϕ).<br />
Enfin, l’inégalité triangulaire vérifiée par N est appelée inégalité <strong>de</strong> Minkowski.<br />
Démonstration :<br />
Il y a donc quatre points à vérifier.<br />
• pour tout vecteur x <strong>de</strong> E, la quantité N(x) existe puisque ϕ(x,x) est un réel positif, et : N(x) ∈ + .<br />
• si pour : x ∈ E, on a : N(x) = 0, alors : ϕ(x,x) = 0, et ϕ comme produit <strong>scalaire</strong> est une forme définie,<br />
donc : x = 0.<br />
• pour : x ∈ E, et : λ ∈ (ou ), N(λ.x) = ϕ ( λ.<br />
x,<br />
λ.<br />
x)<br />
= λ . ϕ(<br />
x,<br />
x)<br />
= λ.<br />
ϕ(<br />
x,<br />
x)<br />
= |λ|.N(x).<br />
• enfin, pour : (x,y) ∈ E 2 , on a dans le cas réel :<br />
N(x+y) 2 = ϕ(x+y,x+y) = ϕ(x,x) + 2.ϕ(x,y) + ϕ(y,y) ≤ N(x) 2 + 2.N(x).N(y) + N(y) 2 = (N(x) + N(y)) 2 , d’où<br />
l’inégalité triangulaire pour N, et dans le cas complexe :<br />
N(x+y) 2 = ϕ(x,x) + 2.Re(ϕ(x,y)) + ϕ(y,y) ≤ N(x) 2 + 2.|ϕ(x,y)| + N(y) 2 ≤ N(x) 2 + 2.N(x).N(y) + N(y) 2 , et on<br />
termine comme dans le cas réel avec l’inégalité triangulaire.<br />
Théorème 2.7 : égalités dites « <strong>de</strong> polarisation »<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />
• dans le cas réel, on a les égalités suivantes : ∀ (x,y) ∈ E 2 ,<br />
2<br />
2<br />
x + y = x + y + 2.(x|y),<br />
2<br />
1<br />
(x|y) = .( x + y ² −<br />
2<br />
x ² −<br />
1<br />
y ²) = .( x + y ² −<br />
4<br />
x − y ²) .<br />
• dans le cas complexe, ces égalités <strong>de</strong>viennent : ∀ (x,y) ∈ E 2 ,<br />
2<br />
2<br />
x + y = x + y + 2.Re((x|y)),<br />
2<br />
1<br />
(x|y) = .( x + y ² − x − y ² − i.<br />
x + i.<br />
y ² + i.<br />
x − i.<br />
y ²) .<br />
4<br />
Démonstration :<br />
• Le cas réel a déjà été quasiment traité (théorème 1.2).<br />
Il suffit d’écrire : ∀ (x,y) ∈ E 2 ,<br />
2<br />
x + y = ( x + y x + y)<br />
= x + y + 2.(x|y), et :<br />
d’où les égalités proposées.<br />
• dans le cas complexe, on a : ∀ (x,y) ∈ E 2 ,<br />
2<br />
2<br />
2<br />
2<br />
2<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 7 -<br />
2<br />
2<br />
x − y = ( x − y x − y)<br />
= x + y – 2.(x|y),<br />
x + y = ( x + y x + y)<br />
= x + y + ( x y)<br />
+ ( y x)<br />
= x + y + ( x y)<br />
+ ( x y)<br />
= x + y + 2.Re((x|y)),<br />
puis si on développe l’expression suivante, le résultat est immédiat.<br />
3. Orthogonalité.<br />
Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale,<br />
orthonormale<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />
Deux vecteurs x et y <strong>de</strong> E sont dits orthogonaux pour (.|.) si et seulement si : (x|y) = 0.<br />
De même, un vecteur x <strong>de</strong> E est dit unitaires (ou normé) si et seulement si : x = 1.<br />
Soit (xi)i∈I, une famille <strong>de</strong> vecteurs <strong>de</strong> E.<br />
On dit que la famille est orthogonale pour (.|.) si et seulement si : ∀ (i,j) ∈ I 2 , (i ≠ j) ⇒ ((xi|xj) = 0).<br />
On dit que la famille est orthonormale pour (.|.) si et seulement si elle est orthogonale et si <strong>de</strong> plus, tous<br />
les vecteurs <strong>de</strong> la famille sont normés.<br />
Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />
Soit (xi)i∈I, une famille <strong>de</strong> vecteurs <strong>de</strong> E.<br />
Si la famille est orthogonale pour (.|.) et ne comporte pas le vecteur nul, elle est libre.<br />
Si la famille est orthonormale pour (.|.), elle est libre.<br />
2<br />
2<br />
2<br />
2<br />
2<br />
2
Démonstration :<br />
Comme les combinaisons linéaires qu’on peut envisager ne comporte toujours qu’au plus un nombre fini<br />
<strong>de</strong> coefficients non nuls, on peut noter la famille (xi)1≤i≤n, pour un entier n donné.<br />
Alors, si pour : (λi)1≤i≤n ∈ K n , on a : λ1.x1 + … + λn.xn = 0, alors :<br />
∀ 1 ≤ i ≤ n, (xi|λ1.x1 + … + λn.xn) = 0, et par linéarité par rapport à la <strong>de</strong>uxième variable, on obtient :<br />
∀ 1 ≤ i ≤ n, λi.<br />
i<br />
2<br />
x = 0, (puisqu la famille est orthogonale).<br />
Donc si tous les xi sont non nuls, on conclut bien au fait que : ∀ 1 ≤ i ≤ n, λi = 0, et la famille est libre.<br />
Si maintenant on considère une famille orthonormale, elle est orthogonale et ne contient pas le vecteur<br />
nul, donc elle est libre.<br />
Théorème 3.2 : <strong>de</strong> Pythagore<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />
Soit (xi)1≤i≤n, une famille finie orthogonale <strong>de</strong> vecteurs <strong>de</strong> E.<br />
Alors :<br />
1<br />
n<br />
2<br />
x + ... + x = x + ... + x .<br />
1<br />
2<br />
n<br />
2<br />
Démonstration :<br />
On peut par exemple procé<strong>de</strong>r par récurrence sur n.<br />
Pour : n = 2, si (x1, x2) est une famille orthogonale <strong>de</strong> E, le théorème 2.7 donne bien le résultat voulu.<br />
Si maintenant on suppose le résultat vrai pour tout famille orthogonale <strong>de</strong> n vecteurs <strong>de</strong> E (avec : n ≥ 2),<br />
alors étant donné une famille orthogonale (x1, …, xn+1) <strong>de</strong> vecteurs <strong>de</strong> E, la famille (x1 + … + xn, xn+1) est<br />
une famille <strong>de</strong> <strong>de</strong>ux vecteurs <strong>de</strong> E, orthogonale car: (x1 + … + xn|xn+1) = (x1|xn+1) + … + (xn|xn+1) = 0.<br />
Donc :<br />
2<br />
2<br />
2 2<br />
2<br />
x 1 ... + x n+<br />
1 = x1<br />
+ ... + x n + x n+<br />
1 = x1<br />
+ ... + x n + x n+<br />
1<br />
+ .<br />
Et la récurrence est terminée.<br />
Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation <strong>de</strong> Gram-Schmidt<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />
Soit (xi)1≤i≤n, une famille libre <strong>de</strong> vecteurs <strong>de</strong> E.<br />
On peut construire une famille (e1, …, en) <strong>de</strong> vecteurs <strong>de</strong> E telle que :<br />
• ∀ 1 ≤ p ≤ n, ep ≠ 0,<br />
• ∀ 1 ≤ p ≤ n, ep ∈ Vect(x1, …, xp),<br />
• ∀ 1 ≤ i ≠ j ≤ n, (ei|ej) = 0.<br />
On a dans ce cas : ∀ 1 ≤ p ≤ n, Vect(x1, .., xp) = Vect(e1, …, ep).<br />
Par ailleurs, dans le cas réel, il existe une unique famille (ε1, …, εn) <strong>de</strong> vecteurs <strong>de</strong> E, telle que :<br />
• ∀ 1 ≤ p ≤ n, εp ∈ Vect(x1, …, xp),<br />
• ∀ 1 ≤ i ≠ j ≤ n, (εi|εj) = 0,<br />
• ∀ 1 ≤ p ≤ n, p 1 = ε ,<br />
• ∀ 1 ≤ p ≤ n, (εp|xp) > 0.<br />
On a encore dans ce cas : ∀ 1 ≤ p ≤ n, Vect(x1, .., xp) = Vect(ε1, …, εp).<br />
Démonstration :<br />
• orthogonalisation <strong>de</strong> la famille : on procè<strong>de</strong> à la construction par récurrence en montrant en même<br />
temps que la famille obtenue vérifie bien : ∀ 1 ≤ p ≤ n, Vect(e1, …, ep) = Vect(x1, …, xp).<br />
On doit alors prendre e1 colinéaire à x1, et il est possible <strong>de</strong> trouver e1 tel que : e1 ≠ 0, et : e1 ∈ Vect(x1).<br />
Il suffit pour cela <strong>de</strong> choisir par exemple : e1 = x1.<br />
On a alors en plus (et quelque soit en fait le choix <strong>de</strong> e1) : Vect(e1) = Vect(x1).<br />
Supposons maintenant que pour : 1 ≤ p ≤ n – 1, on ait construit une famille (e1, …, ep) telle qu’indiqué et<br />
supposons alors <strong>de</strong> plus que : Vect(e1, …, ep) = Vect(x1, …, xp).<br />
On cherche alors ep+1 tel que : ep+1 ∈ Vect(x1, …, xp+1), donc sous la forme : ep+1 = λ1.x1 + … + λp+1.xp+1.<br />
Mais puisqu’on a <strong>de</strong> plus supposé que : Vect(e1, …, ep) = Vect(x1, …, xp), on peut alors écrire ep+1 sous<br />
la forme : ep+1 = λ’1.e1 + … + λ’p.ep + λp+1.xp+1.<br />
On veut <strong>de</strong> plus que la famille (e1, …, ep+1) soit orthogonale, ce qui s’écrit :<br />
∀ 1 ≤ i ≤ p, (ei|ep+1) = 0 = λ’i.(ei|ep) + λp+1.(ei|xp+1),<br />
( ei<br />
x p+<br />
1)<br />
et comme les ei sont non nuls, pour : 1 ≤ i ≤ p, il est équivalent d’écrire : ∀ 1 ≤ i ≤ p, λ’i = − . λ 2 p+<br />
1 .<br />
e<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 8 -<br />
2<br />
i
⎡<br />
p ( e ⎤<br />
i x p+<br />
1)<br />
Autrement dit, le vecteur ep+1 est nécessairement <strong>de</strong> la forme : ep+1 = λp+1. ⎢x<br />
p+<br />
1 − ∑ . ei<br />
⎥ .<br />
2<br />
⎢ i=<br />
1 ⎣ ei<br />
⎥<br />
⎦<br />
Or le vecteur dans le crochet est non nul (puisque la famille (xp+1, e1, …, ep) est libre) donc il est possible<br />
<strong>de</strong> trouver un vecteur ep+1 répondant aux conditions imposées (en prenant : λp+1 ≠ 0).<br />
Enfin, on a : Vect(e1, …, ep+1) ⊂ Vect(e1, …, ep, xp+1) = Vect(x1, …, xp+1), vu l’écriture <strong>de</strong> ep+1.<br />
p ( ei<br />
x p+<br />
1)<br />
1<br />
Et comme <strong>de</strong> même, on a : x p+<br />
1 = ∑ . e 2 i + . e p+<br />
1 ,<br />
i=<br />
1 e λ p+<br />
1<br />
i<br />
on a aussi : Vect(x1, …, xp+1) ⊂ Vect(e1, …, ep+1), d’où l’égalité, et ceci quelque soit le choix <strong>de</strong> ep+1.<br />
La récurrence est donc terminée et l’existence d’une famille orthogonalisée établie.<br />
• orthonormalisation <strong>de</strong> la famille.<br />
Si on veut orthonormaliser la famille, alors la famille (ε1, …, εn) est une <strong>de</strong> celles construites<br />
précé<strong>de</strong>mment.<br />
Montrons qu’à chaque étape <strong>de</strong> la construction, il n’y a qu’un vecteur qui répond aux conditions.<br />
Pour ε1, on doit normer e1 et vérifier ensuite que : (ε1|x1) > 0.<br />
x 1<br />
x 1<br />
Cela donne donc : ε1 = ± , puis : ε1 = , pour que le produit <strong>scalaire</strong> soit positif.<br />
x<br />
x<br />
1<br />
1<br />
Si maintenant, pour : 1 ≤ p ≤ n – 1, on suppose tous les vecteurs εi, pour : 1 ≤ i ≤ p, construits <strong>de</strong> façon<br />
unique, alors les vecteurs εi sont colinéaires aux vecteurs ei précé<strong>de</strong>nts et εp+1 s’écrit :<br />
⎡<br />
p ( e ⎤<br />
i x p+<br />
1)<br />
εp+1 = λp+1. ⎢x<br />
p+<br />
1 − ∑ . ei<br />
⎥ = λp+1.yp+1.<br />
2<br />
⎢ i=<br />
1 ⎣ ei<br />
⎥<br />
⎦<br />
La fait que εp+1 doit être normé laisse <strong>de</strong>ux possibilités pour λp+1 (puisque le vecteur yp+1 est non nul,<br />
comme on l’a vu précé<strong>de</strong>mment), à savoir : λp+1 = ±<br />
Si on fixe alors λp+1 à l’une <strong>de</strong> ces valeurs, alors : 1 = (εp+1|εp+1) = λp+1.(εp+1|yp+1) = λp+1.(εp+1|xp+1),<br />
puisque εp+1 est orthogonal par construction aux vecteurs (ε1, …, εp).<br />
Donc (εp+1|xp+1) est non nul, et il suffit enfin <strong>de</strong> choisir : λp+1 = +<br />
1<br />
y<br />
, pour garantir que le produit<br />
<strong>scalaire</strong> (εp+1|xp+1) est strictement positif.<br />
Finalement, le vecteur εp+1 ainsi obtenu est le seul possible et il convient (au rang p+1).<br />
Par récurrence, on vient bien <strong>de</strong> démontrer l’existence et l’unicité <strong>de</strong> la famille orthonormale annoncée.<br />
Définition 3.2 : sous-espaces vectoriels orthogonaux<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />
On dit que F et G sont orthogonaux si et seulement si : ∀ (x,y) ∈ F×G, (x|y) = 0.<br />
On note alors parfois : F ⊥ G.<br />
Théorème 3.4 : cas <strong>de</strong> sous-espaces vectoriels <strong>de</strong> dimension finie<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E <strong>de</strong> dimension finie, <strong>de</strong> bases BF et BG.<br />
F et G sont orthogonaux si et seulement si tout vecteur <strong>de</strong> BF est orthogonal à tout vecteur <strong>de</strong> BG.<br />
Démonstration :<br />
On peut procé<strong>de</strong>r par double implication.<br />
• [⇒] si tout vecteur <strong>de</strong> F est orthogonal à tout vecteur <strong>de</strong> G, c’est en particulier vrai pour les vecteurs <strong>de</strong><br />
BF et <strong>de</strong> BG.<br />
• [⇐] puisque : F = Vect(BF), et : G = Vect(BG), la bilinéarité (ou sesquilinéarité) du produit <strong>scalaire</strong><br />
montre qu’alors, tout vecteur <strong>de</strong> F est orthogonal à tout vecteur <strong>de</strong> G si c’est vrai pour les vecteurs <strong>de</strong><br />
BF et <strong>de</strong> BG.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 9 -<br />
y<br />
1<br />
p+<br />
1<br />
.<br />
p+<br />
1
Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soit A une partie <strong>de</strong> E.<br />
On appelle orthogonal <strong>de</strong> A, noté A ⊥ ou A°, l’ensemble <strong>de</strong>s vecteurs <strong>de</strong> E orthogonaux à tous les<br />
vecteurs <strong>de</strong> A, soit : A ⊥ = { x ∈ E, ∀ y ∈ A, (x|y) = 0}.<br />
Pour toute partie A <strong>de</strong> E, A ⊥ est un sous-espace vectoriel <strong>de</strong> E.<br />
Démonstration :<br />
Il est clair que A ⊥ est inclus dans E.<br />
De plus : ∀ y ∈ A, (0|y) = 0, et : 0 ∈ A ⊥ .<br />
Enfin : ∀ (x,x’) ∈ (A ⊥ ) 2 , ∀ (λ,λ’) ∈ K 2 , ∀ y ∈ A, (λ.x + λ’.x’|y) = λ.(x|y) + λ’(x’|y) = 0, (en rajoutant une barre<br />
<strong>de</strong> conjugaison sur les <strong>scalaire</strong>s dans le cas complexe, ce qui ne change pas le résultat), et :<br />
(λ.x+λ’.x’) ∈ A ⊥ .<br />
Finalement, A ⊥ est bien un sous-espace vectoriel <strong>de</strong> E.<br />
Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />
On dit que F et G sont supplémentaires orthogonaux dans E si et seulement si F et G sont<br />
supplémentaires dans E et orthogonaux.<br />
⊥<br />
On note alors : E = F⊕<br />
G .<br />
Un projecteur <strong>de</strong> E est alors dit projecteur orthogonal, lorsque les <strong>de</strong>ux espaces qui permettent <strong>de</strong> le<br />
définir sont <strong>de</strong>s supplémentaires orthogonaux dans E.<br />
Théorème 3.6 : caractérisation en dimension finie <strong>de</strong>s supplémentaires orthogonaux<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />
F et G sont supplémentaires orthogonaux dans E si et seulement si on obtient une base orthogonale <strong>de</strong><br />
E en réunissant une base orthogonale <strong>de</strong> F et une base orthogonale <strong>de</strong> G.<br />
Démonstration :<br />
Travaillons encore par double implication :<br />
• [⇒]<br />
Si F et G sont supplémentaires orthogonaux dans E, alors en réunissant <strong>de</strong>s bases orthogonales <strong>de</strong> F et<br />
<strong>de</strong> G, on obtient tout d’abord une base <strong>de</strong> E, et tous les vecteurs <strong>de</strong> la base <strong>de</strong> F étant orthogonaux à<br />
tous ceux <strong>de</strong> la base <strong>de</strong> G, la base <strong>de</strong> E obtenue est bien orthogonale.<br />
• [⇐]<br />
Si la réunion <strong>de</strong> <strong>de</strong>ux bases orthogonales <strong>de</strong> F et <strong>de</strong> G donne une base orthogonale <strong>de</strong> E, alors les<br />
vecteurs <strong>de</strong> la base <strong>de</strong> F et ceux <strong>de</strong> G sont orthogonaux entre eux et F et G sont orthogonaux d’après le<br />
théorème 3.4.<br />
De plus, il est clair que F et G sont supplémentaires dans E.<br />
Théorème 3.7 et définition 3.5 : somme directe orthogonale <strong>de</strong> sous-espaces vectoriels<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />
Soient F1, …, Fn <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />
Si les sous-espaces vectoriels sont orthogonaux <strong>de</strong>ux à <strong>de</strong>ux, alors la somme [F1 + … + Fn] est directe.<br />
On dit alors que les sous-espaces vectoriels sont en somme directe orthogonale, et on la note encore :<br />
n<br />
⊥ ⊥ ⊥<br />
⊥<br />
1 ⊕ F2<br />
⊕...<br />
⊕ Fn<br />
, ou : Fi<br />
i=<br />
1<br />
F<br />
⊕ .<br />
Démonstration :<br />
Soit un vecteur par exemple <strong>de</strong> l’intersection : (F1 + … + Fn-1) ∩ Fn.<br />
Alors on peut l’écrire : x = x1 + … + xn-1 = xn, chaque xi appartenant à l’espace Fi correspondant.<br />
On constate que : (x|x) = (xn|x1 + … + xn-1) = (xn|x1) + … + (xn-1|xn) = 0,<br />
et ce résultat est i<strong>de</strong>ntique en intervertissant les rôles <strong>de</strong> espaces.<br />
Finalement, la somme est bien directe.<br />
4. Espaces euclidiens et hermitiens.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 10 -
Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien<br />
On appelle espace euclidien un espace vectoriel réel <strong>de</strong> dimension finie, muni d’un produit <strong>scalaire</strong>.<br />
On appelle <strong>de</strong> même espace hermitien un espace vectoriel complexe <strong>de</strong> dimension finie, muni d’un<br />
produit <strong>scalaire</strong> hermitien.<br />
Théorème 4.1 : existence <strong>de</strong> bases orthonormales dans les espaces euclidiens et hermitiens<br />
Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien.<br />
Il existe dans E <strong>de</strong>s bases orthonormales pour (.|.).<br />
Démonstration :<br />
Il suffit <strong>de</strong> considérer une base <strong>de</strong> E (donc une famille libre) et <strong>de</strong> lui appliquer le procédé<br />
d’orthonormalisation <strong>de</strong> Schmidt pour obtenir une nouvelle famille libre <strong>de</strong> n vecteurs <strong>de</strong> E (puisque<br />
orthogonale sans le vecteur nul) donc une base orthonormale <strong>de</strong> E.<br />
Théorème 4.2 : <strong>de</strong> la base incomplète orthogonale ou orthonormale<br />
Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien.<br />
Soit (x1, …, xp) une famille orthogonale <strong>de</strong> vecteurs <strong>de</strong> E, ne comportant pas le vecteur nul.<br />
Alors il est possible <strong>de</strong> compléter la famille (x1, …, xp) en une base orthogonale <strong>de</strong> E.<br />
De même, si (e1, …, ep) est une famille orthonormale <strong>de</strong> vecteurs <strong>de</strong> E, il est possible <strong>de</strong> compléter cette<br />
famille en une base orthonormale <strong>de</strong> E.<br />
Démonstration :<br />
On utilise cette fois le théorème <strong>de</strong> la base incomplète appliqué à la famille (x1, …, xp) et une base <strong>de</strong> E.<br />
La famille complétée peut alors être orthogonalisée suivant le procédé <strong>de</strong> Schimdt qui donne pour les p<br />
premiers vecteurs, les vecteurs x1, …, xp eux-mêmes.<br />
Dans le cas d’une famille (e1, …, ep) <strong>de</strong> départ, orthonormale, on applique l’orthonormalisation pour<br />
obtenir une base <strong>de</strong> E orthonormale, dont les premiers vecteurs sont encore (e1, …, ep).<br />
Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
L’application <strong>de</strong> E dans E* qui au vecteur a fait correspondre la forme linéaire (a|.) est un isomorphisme<br />
d’espaces vectoriels.<br />
En particulier : ∀ f* ∈ E*, ∃ ! a ∈ E, ∀ x ∈ E, f*(x) = (a|x).<br />
Démonstration :<br />
• Montrons tout d’abord que pour : a ∈ E, donné, (a|.) est bien une forme linéaire.<br />
Pour cela : ∀ x ∈ E, (a|x) ∈ .<br />
Puis : ∀ (x,y) ∈ E 2 , ∀ (λ,μ) ∈ 2 , (a|(λ.x + μ.y)) = λ.(a|x) + μ.(a|y),<br />
du fait <strong>de</strong> la bilinéarité du produit <strong>scalaire</strong>.<br />
Donc (a|.) est bien un élément <strong>de</strong> E*.<br />
• Montrons maintenant que ω : a a (a|.), est elle-même une application linéaire <strong>de</strong> E dans E*.<br />
Pour cela : ∀ (a,b) ∈ E 2 , ∀ (λ,μ) ∈ 2 , ∀ x ∈ E,<br />
(ω(λ.a + μ.b))(x) = ((λ.a + μ.b)|x) = λ.(a|x) + μ.(b|x) = (λ.ω(a) + μ.ω(b))(x)<br />
et donc : ω(λ.a + μ.b) = λ.ω(a) + μ.ω(b).<br />
• Enfin, montrons que ω est injective, et pour cela, soit : a ∈ E, tel que : ω(a) = 0.<br />
Alors : ∀ x ∈ E, (a|x) = 0, donc a est orthogonal à E et : a = 0.<br />
Puisque pour terminer : dim(E) = dim(E*), on en déduit que ω est bien un isomorphisme <strong>de</strong> E sur E*.<br />
Théorème 4.4 : caractérisation matricielle <strong>de</strong>s bases orthogonales ou orthonormales, <strong>de</strong>s formes<br />
bilinéaires symétriques dans le cas réel<br />
Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien <strong>de</strong> dimension n.<br />
Soit : B = (ei), une base <strong>de</strong> E.<br />
On note M la matrice du produit <strong>scalaire</strong> dans la base (ei) définie par : ∀ 1 ≤ i,j ≤ n, mi,j = (ei|ej).<br />
La matrice M est symétrique dans le cas où E est un espace euclidien.<br />
On a <strong>de</strong> plus les équivalences suivantes, que E soit un espace vectoriel euclidien ou hermitien :<br />
• (B est orthogonale) ⇔ (M est diagonale),<br />
• (B est orthonormale) ⇔ (M = In).<br />
Plus généralement, si M est la matrice d’une forme bilinéaire symétrique d’un espace euclidien E, alors<br />
M est symétrique.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - <strong>11</strong> -
Démonstration :<br />
Dans le cas général d’une forme bilinéaire symétrique ϕ (ou d’un produit <strong>scalaire</strong>) d’un espace vectoriel<br />
euclidien, il est clair que la matrice M est symétrique.<br />
En effet, on a : ∀ 1 ≤ i,j ≤ n, mi,j = ϕ(ei,ej) = ϕ(ej,ei) = mj,i.<br />
De plus, les <strong>de</strong>ux résultats suivants sont presque immédiats puisque :<br />
• (B est orthogonale) ⇔ (∀ 1 ≤ i ≠ j ≤ n, (ei|ej) = 0 = mi,j) ⇔ (M est diagonale).<br />
• (B est orthonormale) ⇔ (∀ 1 ≤ i,j ≤ n, (ei|ej) = δi,j) ⇔ (M = In).<br />
Théorème 4.5 : expression matricielle du produit <strong>scalaire</strong>, cas réel<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />
Soit : B = (ei), une base <strong>de</strong> E.<br />
Soient x et y <strong>de</strong>s vecteurs <strong>de</strong> E, et X et Y les matrices colonnes <strong>de</strong> leurs coordonnées dans B.<br />
Alors : (x|y) = t X.M.Y.<br />
Si B est orthonormale, on a <strong>de</strong> plus :<br />
• (x|y) = t X.Y = ∑<br />
i=<br />
1<br />
n<br />
• x = ∑<br />
i=<br />
1<br />
i<br />
i<br />
n<br />
( e x).<br />
e ,<br />
n<br />
x (forme canonique d’un produit <strong>scalaire</strong> réel dans une base orthonormale),<br />
i i y .<br />
2<br />
2<br />
2<br />
• x = ∑ x i = ∑(<br />
ei<br />
x)<br />
.<br />
i=<br />
1<br />
n<br />
i=<br />
1<br />
Démonstration :<br />
• Pour le premier point, il suffit <strong>de</strong> développer :<br />
On note pour commencer : Y’ = M.Y, et on a : ∀ 1 ≤ i ≤ n, y’i = ∑ m i, k.<br />
y k .<br />
k=<br />
1<br />
Puis t X.M.Y est une matrice à une ligne et une colonne et son seul coefficient vaut alors :<br />
n<br />
∑<br />
i=<br />
1<br />
n<br />
n<br />
∑∑<br />
x . y'<br />
= m . x y .<br />
i<br />
i<br />
i=<br />
1 k=<br />
1<br />
i,<br />
k<br />
i<br />
k<br />
D’autre part, en utilisant la bilinéarité du produit <strong>scalaire</strong>, on obtient également :<br />
n<br />
(x|y) = ∑ x i.(<br />
ei<br />
y)<br />
= ∑ x i.<br />
∑ y k .( ei<br />
e k ) = ∑∑ x i.<br />
y k.<br />
m i,<br />
k ,<br />
i=<br />
1<br />
n<br />
n<br />
i=<br />
1 k=<br />
1<br />
n<br />
n<br />
i=<br />
1 k=<br />
1<br />
et les <strong>de</strong>ux expressions sont égales si on confond la matrice 1×1 avec son unique coefficient.<br />
• Si la base est orthonormale alors : ∀ 1 ≤ i,j ≤ n, mi,j = δi,j, la matrice M vaut In, et on a bien :<br />
(x|y) = t X.Y = ∑<br />
i=<br />
1<br />
n<br />
x .<br />
i i y .<br />
• Soit : x = x1.e1 + … + xn.en, la décomposition <strong>de</strong> x suivant la base orthonormale B.<br />
n<br />
∑<br />
j=<br />
1<br />
On peut alors calculer : (ei|x) = x j.(<br />
ei<br />
e j)<br />
= x i , d’où l’expression <strong>de</strong> x.<br />
n<br />
2<br />
2<br />
2<br />
• Enfin : x = ( x x)<br />
= ∑ x i = ∑(<br />
ei<br />
x)<br />
, vu les expressions trouvées précé<strong>de</strong>mment.<br />
i=<br />
1<br />
n<br />
i=<br />
1<br />
Théorème 4.6 : expression matricielle du produit <strong>scalaire</strong>, cas complexe<br />
Soit (E,(.|.)) un espace vectoriel hermitien <strong>de</strong> dimension n.<br />
Soit : B = (ei), une base <strong>de</strong> E.<br />
Soient x et y <strong>de</strong>s vecteurs <strong>de</strong> E, et X et Y les matrices colonnes <strong>de</strong> leurs coordonnées dans B.<br />
t<br />
Alors : (x|y) = X.<br />
M.<br />
Y .<br />
Si B est orthonormale, on a <strong>de</strong> plus :<br />
t<br />
n<br />
• (x|y) = = X . Y = ∑ x i.<br />
yi<br />
(forme canonique d’un produit <strong>scalaire</strong> complexe dans une base<br />
i=<br />
1<br />
orthonormale),<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 12 -<br />
n
n<br />
• x = ∑<br />
i=<br />
1<br />
( e x).<br />
e ,<br />
n<br />
i<br />
2<br />
2<br />
2<br />
• x = ∑ x i = ∑ ( ei<br />
x)<br />
.<br />
i=<br />
1<br />
i<br />
n<br />
i=<br />
1<br />
Démonstration :<br />
On adapte sans difficulté la démonstration précé<strong>de</strong>nte au cas complexe, en tenant compte du fait que le<br />
produit <strong>scalaire</strong> est cette fois semi-linéaire par rapport à la première variable, d’où les barres <strong>de</strong><br />
conjugaison et l’apparition du module dans l’expression <strong>de</strong> la norme d’un vecteur <strong>de</strong> E.<br />
5. Projections orthogonales.<br />
Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel <strong>de</strong> dimension finie<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non.<br />
Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />
Alors F ⊥ est un supplémentaire <strong>de</strong> F dans E, appelé supplémentaire orthogonal <strong>de</strong> F dans E.<br />
En particulier, si E est <strong>de</strong> dimension finie, on a donc : dim(F) + dim(F ⊥ ) = dim(E).<br />
Démonstration :<br />
On va montrer que tout vecteur <strong>de</strong> E peut se décomposer <strong>de</strong> façon unique comme somme d’un vecteur<br />
<strong>de</strong> F et <strong>de</strong> F ⊥ .<br />
Pour cela, soit (e1, …, ep) une base orthonormale BF <strong>de</strong> F et soit x un vecteur <strong>de</strong> E.<br />
Si x peut s’écrire : x = xF + x⊥, avec : xF ∈ F, et : x⊥ ∈ F ⊥ , alors :<br />
∃ (x1, …, xp) ∈ K p , xF = x1.e1 + … + xp.ep, et x⊥ est orthogonal à tout vecteur <strong>de</strong> F.<br />
En particulier : ∀ 1 ≤ i ≤ p, (ei|x) = (ei|xF) + (ei|x⊥) = xi, puisque la base BF est orthonormale.<br />
p<br />
Donc xF ne peut valoir que : xF = ∑ ( ei<br />
x).<br />
ei<br />
, et : x⊥ = x – xF.<br />
i=<br />
1<br />
Réciproquement, cette unique décomposition possible convient car on a bien :<br />
• xF ∈ F, puisque BF engendre F,<br />
• x = xF + x⊥, par construction,<br />
• ∀ 1 ≤ k ≤ p, (ek|x⊥) = (ek|x) – (ek|xF) = (ek|x) – (ek|x) = 0, à nouveau parce que la base BF <strong>de</strong> F est<br />
orthonormale et en utilisant la linéarité du produit <strong>scalaire</strong> par rapport à sa première variable.<br />
Le troisième point permet <strong>de</strong> conclure plus généralement que : ∀ y ∈ F, (y|x⊥) = 0.<br />
Les <strong>de</strong>ux sous-espaces vectoriels sont donc bien supplémentaires dans E et en particulier, si E est <strong>de</strong><br />
dimension finie, on a : dim(F) + dim(F ⊥ ) = dim(E).<br />
Théorème 5.2 : cas d’un hyperplan d’un espace euclidien<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />
Soit H un hyperplan <strong>de</strong> E, et : B = (e1, …, en), une base orthonormale <strong>de</strong> E.<br />
Alors si H est le noyau <strong>de</strong> la forme linéaire ϕ, l’expression <strong>de</strong> ϕ dans la base B fournit une base <strong>de</strong> H ⊥ .<br />
Plus précisément, si un vecteur : x = x1.e1 + … + xn.en, a pour image [a1.x1 + … + an.xn] par ϕ, alors :<br />
a1.x1 + … + an.xn = 0, est une équation <strong>de</strong> H et le vecteur (a1.e1 + … + an.en) est une base <strong>de</strong> H ⊥ .<br />
Démonstration :<br />
si B est une base orthonormale <strong>de</strong> E, il suffit <strong>de</strong> remarquer que, pour un vecteur x <strong>de</strong> E, s’écrivant :<br />
x = x1.e1 + … + xn.en,, l’image : ϕ(x) = a1.x1 + … + an.xn, <strong>de</strong> ce vecteur s’écrit également :<br />
ϕ(x) = (x|a), où a est la vecteur : a = a1.e1 + … + an.en, en utilisant le fait que l’expression du produit<br />
<strong>scalaire</strong> dans la base B est alors canonique.<br />
En particulier, on a : (x ∈ H) ⇔ (ϕ(x) = 0) ⇔ ((x|a) = 0) ⇔ x ∈ ((Vect(a)) ⊥ ).<br />
Donc : H = (Vect(a)) ⊥ , ou : Vect(a) = H ⊥ .<br />
Théorème 5.3 : expression <strong>de</strong> la projection orthogonale sur un sous-espace vectoriel <strong>de</strong> dimension<br />
finie<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non.<br />
Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 13 -
Soit (e1, …, ep) une base orthonormale <strong>de</strong> F et pF la projection orthogonale <strong>de</strong> E sur F.<br />
Alors pour tout vecteur x <strong>de</strong> E, on a : pF(x) = ∑<br />
i=<br />
p<br />
1<br />
( e x)<br />
. e .<br />
Démonstration :<br />
On a montré dans la démonstration du théorème 5.1 qu’un vecteur x <strong>de</strong> E pouvait se décomposer<br />
suivant la somme directe : E = F ⊕ F ⊥ , en : x = ∑<br />
i=<br />
orthonormale.<br />
Dans ce cas, la projection orthogonale pF(x) <strong>de</strong> x sur F s’écrit : pF(x) = ∑<br />
i=<br />
p<br />
1<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 14 -<br />
i<br />
i<br />
i<br />
( e x).<br />
e + x⊥, puisque la base choisie dans F est<br />
i<br />
p<br />
1<br />
( e x).<br />
e .<br />
Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel <strong>de</strong> dimension finie<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non et . la norme<br />
associée.<br />
Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />
Pour un vecteur x <strong>de</strong> E, on appelle distance <strong>de</strong> x à F, notée d(x,F), la quantité : d(<br />
x,<br />
F)<br />
inf x − z<br />
i<br />
i<br />
=<br />
z∈F<br />
Cette valeur est atteinte en un unique vecteur <strong>de</strong> F qui est pF(x), la projection orthogonale <strong>de</strong> x sur F.<br />
On a donc : d(x,F) = − p ( x)<br />
.<br />
x F<br />
Démonstration :<br />
Tout d’abord, pour un vecteur x <strong>de</strong> E, l’ensemble { x − z , z ∈ F} est non vi<strong>de</strong> (il suffit <strong>de</strong> prendre : z = 0)<br />
et il est constitué <strong>de</strong> réels positifs, donc il est minoré.<br />
Par conséquent, il admet une borne inférieure.<br />
De plus, en notant xF la projection orthogonale pF(x) <strong>de</strong> x sur F, on a :<br />
∀ z ∈ F,<br />
2<br />
x − z = x − x + x − z .<br />
F<br />
F<br />
2<br />
Or : (x – xF) ∈ F ⊥ , et : (xF – z) ∈ F, donc ces <strong>de</strong>ux vecteurs sont orthogonaux et le théorème <strong>de</strong><br />
Pythagore peut s’appliquer pour donner :<br />
∀ z ∈ F,<br />
2<br />
x − z = x − x + x − z .<br />
F<br />
2<br />
F<br />
2<br />
Il est alors clair que : ∀ z ∈ F, x − z ≥ x − x F , et : ∀ z ∈ F, (z ≠ xF) ⇒ ( x − z > x − x F ).<br />
Donc la valeur x − x F est plus petit élément <strong>de</strong> l’ensemble { x − z , z ∈ F}, donc aussi sa borne<br />
inférieure, et elle n’est atteinte qu’en : z = xF = pF(x).<br />
Théorème 5.5 : inégalité <strong>de</strong> Bessel<br />
Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non et . la norme<br />
associée.<br />
Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />
Soit (e1, …, ep) une base orthonormale <strong>de</strong> F.<br />
Pour tout vecteur x <strong>de</strong> E, on a :<br />
Démonstration :<br />
p<br />
∑<br />
i=<br />
1<br />
p<br />
i<br />
2<br />
( e x)<br />
≤<br />
x<br />
2<br />
.<br />
Soit x un vecteur <strong>de</strong> E, et : x = ∑ ( ei<br />
x).<br />
ei<br />
+ x⊥, sa décomposition suivant la somme : E = F ⊕ F<br />
i=<br />
1<br />
⊥ ,<br />
puisque la base proposée dans E est orthonormale.<br />
Alors les <strong>de</strong>ux vecteurs <strong>de</strong> cette décomposition étant orthogonaux, le théorème <strong>de</strong> Pythagore s’applique<br />
à nouveau et :<br />
2<br />
p<br />
∑<br />
x = ( e x).<br />
e + x ≥ ( e x).<br />
e = ( e x)<br />
,<br />
i=<br />
1<br />
i<br />
i<br />
2<br />
⊥<br />
2<br />
p<br />
∑<br />
i=<br />
1<br />
i<br />
i<br />
2<br />
p<br />
∑<br />
i=<br />
1<br />
puisque la base <strong>de</strong> F est orthonormale et l’expression <strong>de</strong> la norme au carré est alors canonique.<br />
i<br />
2<br />
.
6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien.<br />
Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
Soit : u ∈ L(E).<br />
Il existe un unique endomorphisme <strong>de</strong> E, noté u* et appelé adjoint <strong>de</strong> u tel que :<br />
∀ (x,y) ∈ E 2 , (x|u(y)) = (u*(x)|y).<br />
Si B est une base orthonormale <strong>de</strong> E, alors : mat(u*,B) = t mat(u,B).<br />
Démonstration :<br />
• Montrons tout d’abord qu’un endomorphisme u <strong>de</strong> E ne peut admettre qu’un seul adjoint.<br />
Pour cela, si u’ et u’’ répon<strong>de</strong>nt au problème, alors :<br />
∀ x ∈ E, ∀ y ∈ E, (x|u(y)) = (u’(x)|y) = (u’’(x)|y), et : (u’(x) – u’’(x)|y) = 0.<br />
Puisque, pour x fixé, cette <strong>de</strong>rnière égalité est valable pour tout : y ∈ E, on en déduit : u’(x) – u’’(x) = 0.<br />
Mais cette égalité étant elle-même valable pour tout : x ∈ E, on conclut à : u’ = u’’.<br />
• Montrons maintenant que tout endomorphisme <strong>de</strong> E admet bien un adjoint.<br />
Pour cela, soit B une base orthonormale <strong>de</strong> E, A la matrice <strong>de</strong> u dans B, et u* l’endomorphisme <strong>de</strong> E,<br />
tel que : mat(u*,B) = A.<br />
Alors : ∀ (x,y) ∈ E 2 , (x|u(y)) = t X.(A.Y) = t X. t ( t (A)).Y = t ( t A.X).Y = (u*(x)|y),<br />
puisque dans B, l’expression du produit <strong>scalaire</strong> prend une forme canonique.<br />
L’endomorphisme u* ainsi défini, répond bien au problème.<br />
Théorème 6.2 : involution : u aaaa u*<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
L’application <strong>de</strong> L(E) dans lui-même qui à tout endomorphisme u <strong>de</strong> E fait correspondre u* est un<br />
automorphisme involutif <strong>de</strong> L(E).<br />
De plus : ∀ (u,v) ∈ (L(E)) 2 , (uov)* = v*ou*.<br />
Démonstration :<br />
Il suffit ici <strong>de</strong> raisonner matriciellement, et pour cela, <strong>de</strong> fixer une base orthonormale B <strong>de</strong> E.<br />
Soit : u ∈ L(E), et : A = mat(u,B).<br />
Alors u* est défini par : mat(u*,B) = t A,<br />
et (u*)* est lui-même donné par : mat((u*)*,B) = t mat(u*,B) = t ( t A) = A, soit : (u*)* = u.<br />
D’autre part : ∀ (u,v) ∈ L(E) 2 , notons : A = mat(u,B), et : B = mat(v,B).<br />
Alors : mat((uov)*,B) = t (mat(uov,B)) = t (A.B) = t B. t A. = mat(v*,B).mat(u*,B) = mat(v*ou*,B),<br />
d’où : (uov)* = v*ou*.<br />
Définition 6.2 : endomorphisme autoadjoint<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
On dit qu’un endomorphisme u <strong>de</strong> E est autoadjoint si et seulement si : u = u*.<br />
Théorème 6.3 : caractérisation <strong>de</strong>s endomorphismes autoadjoints<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
Soit : u ∈ L(E).<br />
L’endomorphisme u est autoadjoint si et seulement si sa matrice représentative dans toute base<br />
orthonormale <strong>de</strong> E est symétrique.<br />
Démonstration :<br />
Soit B une base orthonormale <strong>de</strong> E.<br />
Alors : ∀ u ∈ L(E), (u = u*) ⇔ (mat(u,B) = mat(u*,B) = t mat(u,B)) ⇔ (mat(u,B) symétrique).<br />
Théorème 6.4 : espace vectoriel <strong>de</strong>s endomorphismes autoadjoints<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />
L’ensemble <strong>de</strong>s endomorphismes autoadjoints <strong>de</strong> E forme un sous-espace vectoriel <strong>de</strong> L(E) <strong>de</strong><br />
n .( n + 1)<br />
dimension .<br />
2<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 15 -
Démonstration :<br />
Fixons à nouveau une base orthonormale B <strong>de</strong> E et appelons φ l’isomorphisme <strong>de</strong> L(E) dans Mn(),<br />
qui à un endomorphisme <strong>de</strong> E fait correspondre sa matrice représentative dans B.<br />
L’ensemble S(E) <strong>de</strong>s endomorphismes symétriques <strong>de</strong> E est bien un sous-espace vectoriel <strong>de</strong> E car :<br />
• S(E) ⊂ L(E),<br />
• S(E) ≠ ∅, puisque l’endomorphisme nul (<strong>de</strong> matrice nulle dans B, donc symétrique) est autoadjoint,<br />
• ∀ (u,v) ∈ S(E), ∀ (λ,μ) ∈ 2 , mat(λ.u+μ.v,B) = λ.mat(u,B) + μ.mat(v,B), est symétrique, et :<br />
(λ.u+μ.v) ∈ S(E).<br />
De plus puisque : φ(S(E)) = Sn(), ensemble <strong>de</strong>s matrices symétriques réelles <strong>de</strong> Mn(), les <strong>de</strong>ux<br />
sous-espaces vectoriels S(E) et Sn() ont même dimension car φ est un isomorphisme, et la dimension<br />
n .( n + 1)<br />
<strong>de</strong> S(E) est bien .<br />
2<br />
Théorème 6.5 : caractérisation par leur adjoint <strong>de</strong>s projecteurs orthogonaux d’un espace vectoriel<br />
euclidien<br />
Soit (E,(.|.)) un espace vectoriel euclidien.<br />
Soit : p ∈ L(E).<br />
L’endomorphisme p est un projecteur orthogonal <strong>de</strong> E si et seulement si : (p 2 = p, et : p* = p).<br />
Soit B une base orthonormale <strong>de</strong> E et : M = mat(p,B).<br />
Alors p est un projecteur orthogonal <strong>de</strong> E si et seulement si : (M 2 = M, et : t M = M).<br />
Démonstration :<br />
Raisonnons par double implication.<br />
• [⇒] Supposons que p est un projecteur orthogonal <strong>de</strong> E et notons B une base <strong>de</strong> E, formée <strong>de</strong> la<br />
réunion d’une base orthonormale <strong>de</strong> Im(p) et d’une base orthonormale <strong>de</strong> ker(p).<br />
Cela fournit une base orthonormale <strong>de</strong> E, et dans cette base, la matrice <strong>de</strong> p est symétrique puisqu’elle<br />
⎛I<br />
k 0⎞<br />
vaut : mat(p,B) = ⎜ ⎟ , où : k = dim(Im(p)).<br />
⎝ 0 0⎠<br />
Donc p est autoadjoint, et : p = p*.<br />
Comme c’est un projecteur, on a aussi : p 2 = p.<br />
• [⇐] Supposons maintenant que : p 2 = p, et : p = p*.<br />
Il est clair alors que p est un projecteur <strong>de</strong> E, et <strong>de</strong> plus :<br />
∀ (x,y) ∈ ker(p)×Im(p), (x|y) = (x|p(y)) = (p*(x)|y) = (p(x)|y) = (0|y) = 0.<br />
Comme ker(p) et Im(p) sont <strong>de</strong>s supplémentaires orthogonaux dans E, p est bien un projecteur<br />
orthogonal <strong>de</strong> E.<br />
Le <strong>de</strong>uxième point est simplement la traduction matricielle <strong>de</strong> la caractérisation précé<strong>de</strong>nte.<br />
7. Endomorphismes orthogonaux et matrices orthogonales.<br />
Définition 7.1 et théorème 7.1 : endomorphisme orthogonal dans un espace vectoriel euclidien<br />
Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />
Soit : u ∈ L(E).<br />
On dit que u est un endomorphisme orthogonal <strong>de</strong> E si et seulement si u conserve la norme ou le produit<br />
<strong>scalaire</strong> <strong>de</strong> E, c'est-à-dire : ∀ (x,y) ∈ E 2 , (u(x)|u(y)) = (x|y), ou : ∀ x ∈ E, u ( x)<br />
= x .<br />
Ces <strong>de</strong>ux définitions sont bien équivalentes.<br />
Démonstration :<br />
Si u conserve le produit <strong>scalaire</strong>, alors :<br />
∀ x ∈ E,<br />
2<br />
u ( x)<br />
= ( u(<br />
x)<br />
u(<br />
x)<br />
) = ( x x)<br />
= x , et u conserve bien la norme.<br />
2<br />
Si par ailleurs, u conserve la norme, alors l’expression du produit <strong>scalaire</strong> à l’ai<strong>de</strong> <strong>de</strong> normes (par le biais<br />
<strong>de</strong>s i<strong>de</strong>ntités dites « <strong>de</strong> polarisation » (théorème 2.7)) et la linéarité <strong>de</strong> u montrent que u conserve le<br />
produit <strong>scalaire</strong>.<br />
Théorème 7.2 : bijectivité <strong>de</strong>s endomorphismes orthogonaux en dimension finie<br />
Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 16 -
Soit : u ∈ L(E), un endomorphisme orthogonal <strong>de</strong> E.<br />
Alors u est bijectif, et donc tout endomorphisme orthogonal d’un espace vectoriel euclidien est un<br />
automorphisme.<br />
De plus, u ne peut admettre comme valeur propre que ±1.<br />
Démonstration :<br />
Puisque l’on travaille dans un espace euclidien, il est <strong>de</strong> dimension finie et il suffit <strong>de</strong> démontrer que<br />
l’endomorphisme u est injectif.<br />
Or : ∀ x ∈ E, (x ∈ ker(u)) ⇔ (u(x) = 0) ⇔ ( x = 0) ⇔ (x = 0).<br />
Supposons maintenant que λ est valeur propre (donc réelle) <strong>de</strong> u, et soit x un vecteur propre associé.<br />
Alors : u(x) = λ.x, et : u( x)<br />
= λ.<br />
x = λ.<br />
x , mais aussi : u ( x)<br />
= x , et comme x est non nul : |λ| = 1.<br />
Théorème 7.3 : caractérisation <strong>de</strong>s endomorphismes orthogonaux<br />
Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />
Soit : u ∈ L(E).<br />
u est un endomorphisme orthogonal <strong>de</strong> E si et seulement si : uou* = u*ou = idE.<br />
Démonstration :<br />
Notons u* l’adjoint <strong>de</strong> u et travaillons par double implication.<br />
• [⇒] Si u est orthogonal, alors :<br />
∀ (x,y) ∈ E 2 , (x|y) = (u(x)|u(y)) = (u*ou(x)|y), donc : (x – u*ou(x)|y) = 0.<br />
Cette égalité étant valable pour tout : y ∈ E, on en déduit : ∀ x ∈ E, x – u*ou(x) = 0, soit : u*ou(x) = x.<br />
Donc : u*ou = idE, et par conséquent : uou* = idE, puisque u est alors bijectif, d’inverse u*.<br />
• [⇒] Si : u*ou = idE, alors : ∀ (x,y) ∈ E 2 , (u(x)|u(y)) = (u*ou(x)|y) = (x|y), et u est orthogonal.<br />
Définition 7.2 : matrice orthogonale<br />
Soit : n ≥ 1.<br />
On dit que : A ∈ Mn(), est une matrice orthogonale si et seulement si : t A.A = In, ou : A. t A = In.<br />
Théorème 7.4 : caractérisation <strong>de</strong>s matrices orthogonales par leurs vecteurs lignes ou colonnes<br />
Soit : n ≥ 1.<br />
Une matrice : A ∈ Mn(), est orthogonale si et seulement si ses colonnes, considérées comme <strong>de</strong>s<br />
vecteurs <strong>de</strong> n (ou ses lignes) forment une base orthonormale <strong>de</strong> n , pour le produit <strong>scalaire</strong> canonique<br />
<strong>de</strong> n .<br />
De plus, si : A ∈ Mn(), est orthogonale, alors : <strong>de</strong>t(A) = ±1.<br />
Démonstration :<br />
Soit : A ∈ Mn().<br />
On peut tout d’abord remarquer que :<br />
( t A.A = In) ⇔ (A -1 = t A) ⇔ (A. t A = In) ⇔ (A orthogonale).<br />
Puis, si on note B la matrice : B = t A.A, ses coefficients sont :<br />
∀ 1 ≤ i,j ≤ n, bi,j = (Ci|Cj), où le produit <strong>scalaire</strong> est ici le produit <strong>scalaire</strong> canonique <strong>de</strong> n , et où on a<br />
noté C1, …, Cn les colonnes <strong>de</strong> A, considérées comme <strong>de</strong>s vecteurs <strong>de</strong> n .<br />
Donc A est orthogonale si et seulement si : B = In, donc si et seulement si la famille (formée <strong>de</strong> n<br />
vecteurs) (c1, …, cn) est orthonormale dans n , donc en forme une base orthonormale.<br />
De même, en notant L1, …, Ln les lignes <strong>de</strong> A, et en utilisant : B’ = A. t A, on démontre l’autre équivalence.<br />
Enfin, si A est orthogonale, alors : <strong>de</strong>t(In) = 1 = <strong>de</strong>t( t A.A) = <strong>de</strong>t( t A).<strong>de</strong>t(A) = (<strong>de</strong>t(A)) 2 .<br />
Théorème 7.5 : caractérisation matricielle <strong>de</strong>s endomorphismes orthogonaux<br />
Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />
Soit : u ∈ L(E).<br />
u est un endomorphisme orthogonal si et seulement si sa matrice dans une base orthonormale <strong>de</strong> E est<br />
une matrice orthogonale.<br />
Démonstration :<br />
Si on note A la matrice <strong>de</strong> u dans une base orthonormale <strong>de</strong> E, alors l’adjoint u* <strong>de</strong> u a pour matrice<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 17 -<br />
t A<br />
dans cette même base.<br />
Or dans ce cas : (u orthogonal) ⇔ (u*ou = idE) ⇔ ( t A.A = In) ⇔ (A orthogonale),
en utilisant la remarque faite dans la démonstration du théorème précé<strong>de</strong>nt.<br />
Théorème 7.6 et définition 7.3 : les groupes (O(E),o) et (O(n),××××)<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n et . la norme associée.<br />
Alors l’ensemble <strong>de</strong>s endomorphismes orthogonaux <strong>de</strong> E, noté O(E), forme un groupe pour la loi o,<br />
appelé groupe orthogonal <strong>de</strong> E et sous-groupe <strong>de</strong> (Gl(E),o).<br />
De même, l’ensemble O(n) <strong>de</strong>s matrices orthogonales <strong>de</strong> Mn(), forme un groupe pour la loi ×, appelé<br />
groupe orthogonal d’ordre n, et sous-groupe <strong>de</strong> (Gl(n),×).<br />
De plus, si on fixe une base B <strong>de</strong> E, orthonormale, l’application <strong>de</strong> L(E) dans Mn(), qui à un<br />
endomorphisme u associe sa matrice dans la base B, induit un isomorphisme <strong>de</strong> groupes <strong>de</strong> (O(E),o)<br />
dans (O(n),×).<br />
Démonstration :<br />
• O(E) :<br />
Les endomorphismes orthogonaux <strong>de</strong> E sont <strong>de</strong>s automorphismes <strong>de</strong> E, donc on a bien : O(E) ⊂ Gl(E).<br />
De plus il est clair que idE conserve la norme donc c’est un endomorphisme orthogonal, et : O(E) ≠ ∅.<br />
Puis, si u et v conservent la norme dans E, alors : ∀ x ∈ E, uov ( x)<br />
= u(<br />
v(<br />
x))<br />
= v(<br />
x)<br />
= x .<br />
Donc : ∀ (u,v) ∈ O(E) 2 , uov ∈ O(E).<br />
−1<br />
Enfin, pour tout u dans O(E), u est bijectif et : ∀ x ∈ E, u ( x)<br />
=<br />
−1<br />
u(<br />
u ( x))<br />
= x , soit : u -1 ∈ O(E).<br />
• O(n) :<br />
De la même façon, toute matrice orthogonale étant inversible, on a : O(n) ⊂ Gl(n).<br />
De plus : t In.In = In, donc : In ∈ O(n), et : O(n) ≠ ∅.<br />
Puis : ∀ (A,B) ∈ O(n) 2 , t (A.B).(A.B) = t B. t A.A.B = t B.In.B = In, et : (A.B) ∈ O(n).<br />
Enfin : ∀ A ∈ O(n), A -1 = t A, et : t (A -1 ).A -1 = t ( t (A)). t A = A. t A = In, et : A -1 ∈ O(n).<br />
• L’application proposée est bien une application <strong>de</strong> O(E) dans O(n), d’après le théorème 7.5.<br />
C’est un morphisme <strong>de</strong> groupes multiplicatifs, car : ∀ (u,v) ∈ O(E) 2 , mat(uov,B) = mat(u,B).mat(v,B).<br />
Enfin, c’est bien une application injective puisque l’application <strong>de</strong> L(E) dans Mn() l’est, et elle est<br />
surjective puisque pour une matrice orthogonale donnée A, l’endomorphisme u <strong>de</strong> E tel que :<br />
A = mat(u,B), est orthogonal, toujours d’après le théorème 7.5.<br />
Théorème 7.7 : matrice <strong>de</strong> passage entre bases orthonormales<br />
Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />
Soit B une base orthonormale <strong>de</strong> E et B’ une autre base <strong>de</strong> E.<br />
Si on note P la matrice <strong>de</strong> passage <strong>de</strong> B à B’, alors B’ est orthonormale si et seulement si P est<br />
orthogonale.<br />
Démonstration :<br />
Soit donc B une bas orthonormale <strong>de</strong> E et B’ une autre base <strong>de</strong> E en notant P la matrice <strong>de</strong> passage<br />
<strong>de</strong> l’une à l’autre.<br />
Les coefficients <strong>de</strong> P sont (en colonne) les coordonnées <strong>de</strong>s vecteurs <strong>de</strong> B’ exprimés dans la base B.<br />
Or dans ce cas : ∀ (j,j’) ∈ {1, …, n} 2 ,<br />
t Cj.Cj’ = (Cj|Cj’), pour le produit <strong>scalaire</strong> canonique (<strong>de</strong>s colonnes Cj et Cj’ <strong>de</strong> P) dans n ,<br />
t n<br />
Cj.Cj’ = ∑ p k, j.<br />
p k,<br />
j'<br />
= (e’j|e’j’), où les e<br />
k=<br />
1<br />
’ k sont les vecteurs <strong>de</strong> B’, et où le produit <strong>scalaire</strong> est cette fois<br />
celui dans E : en effet, la base B étant orthonormale, la forme que prend le produit <strong>scalaire</strong> est encore<br />
canonique.<br />
Il est alors clair que : ( t P.P = In) ⇔ (∀ (j,j’) ∈ {1, …, n} 2 , t Cj.Cj’ = δi,j = (e’j,e’j’)) ⇔ (B’ orthonormale).<br />
8. Réduction <strong>de</strong>s endomorphismes autoadjoints d’un espace vectoriel euclidien et <strong>de</strong>s matrices<br />
symétriques réelles.<br />
Théorème 8.1 : valeurs propres d’une matrice symétrique réelle, d’un endomorphisme autoadjoint<br />
Soit : n ≥ 1.<br />
Soit : A ∈ Mn(), une matrice symétrique réelle.<br />
Alors A, considérée comme élément <strong>de</strong> Mn(), a toutes ses valeurs propres réelles, et donc toutes les<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 18 -
acines <strong>de</strong> son polynôme caractéristique sont réelles.<br />
De même, soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />
Toutes les racines du polynôme caractéristique <strong>de</strong> u sont réelles.<br />
Démonstration :<br />
Soit λ une racine <strong>de</strong> PA éventuellement complexe, et X un vecteur propre (dans n ) associé à λ.<br />
Alors : A.X = λ.X.<br />
Considérons alors le produit <strong>scalaire</strong> hermitien canonique <strong>de</strong> n . On peut écrire :<br />
t<br />
t<br />
t<br />
2<br />
X. A.<br />
X = λ.<br />
X.<br />
X = λ.<br />
X , mais aussi, puisque A est symétrique et réelle et vérifie : A = A ,<br />
t<br />
t<br />
t<br />
X. A.<br />
X=<br />
X.<br />
A.<br />
X=<br />
( A.<br />
X)<br />
. X=<br />
( λ.<br />
X)<br />
. X = λ.<br />
X.<br />
X = λ.<br />
X .<br />
t<br />
t<br />
Et comme X est un vecteur propre, il est non nul, <strong>de</strong> norme également non nulle et : λ = λ .<br />
Donc toute racine <strong>de</strong> PA est réelle.<br />
De même, si u est un endomorphisme autoadjoint <strong>de</strong> E, sa matrice dans n’importe quelle base<br />
orthonormale <strong>de</strong> E est symétrique réelle, donc les racines <strong>de</strong> Pu qui sont celles <strong>de</strong> PA sont toutes réelles.<br />
Théorème 8.2 : orthogonalité <strong>de</strong>s espaces propres d’un endomorphisme autoadjoint<br />
Soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />
Si λ et μ sont <strong>de</strong>s valeurs propres distinctes <strong>de</strong> u, les espaces propres associés Eλ(u) et Eμ(u) sont<br />
orthogonaux.<br />
Démonstration :<br />
Toutes les valeurs propres <strong>de</strong> u sont réelles.<br />
Soient λ et μ <strong>de</strong>ux valeurs propres distinctes, et x et y <strong>de</strong>s éléments <strong>de</strong> Eλ(u) et Eμ(u).<br />
Alors : (x|u(y)= (x|μ.y) = μ.(x|y), mais aussi : (x|u(y)) = (u(x)|y) = (λ.x|y) = λ.(x|y).<br />
Or λ et μ sont distincts, donc : (x|y) = 0, et les sous-espaces propres associés sont bien orthogonaux.<br />
Théorème 8.3 : diagonalisabilité <strong>de</strong>s endomorphismes autoadjoints<br />
Soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />
Il existe une base orthonormale <strong>de</strong> E dans laquelle l’endomorphisme u est diagonalisable.<br />
E est la somme directe orthogonale <strong>de</strong>s sous-espaces propres <strong>de</strong> u.<br />
Démonstration :<br />
On effectue cette démonstration par récurrence sur la dimension n <strong>de</strong> l’espace.<br />
Si u est un endomorphisme autoadjoint d’un espace euclidien <strong>de</strong> dimension 1, il est évi<strong>de</strong>mment<br />
diagonalisable puisque sa matrice dans toute base <strong>de</strong> E est <strong>de</strong> taille 1×1, donc diagonale.<br />
Supposons le résultat acquis pour tout endomorphisme autoadjoint d’un espace vectoriel <strong>de</strong> dimension :<br />
n ≥ 1, donnée.<br />
Soit alors u un endomorphisme autoadjoint d’un espace euclidien E <strong>de</strong> dimension (n+1).<br />
Puisque Pu est scindé dans , u admet au moins une valeur propre λ et un vecteur propre associé e1.<br />
Notons alors E’ le supplémentaire orthogonal <strong>de</strong> Vect(e1) dans E.<br />
• E’ est stable par u :<br />
En effet : ∀ x ∈ E’, (e1|u(x)) = (u(e1)|x) = λ.(e1|x) = 0, puisque x est orthogonal à e1.<br />
Donc : u(x) ∈ Vect(e1) ⊥ , et : u(x) ∈ E’.<br />
• Notons alors u’ l’endomorphisme induit par u dans E’ : l’espace E’ est <strong>de</strong> dimension n puisque<br />
supplémentaire dans E <strong>de</strong> Vect(e1).<br />
• L’endomorphisme u’ <strong>de</strong> E’ est autoadjoint puisque :<br />
∀ (x,y) ∈ E’ 2 , (x|u’(y)) = (x|u(y)) = (u(x)|y) = (u’(x)|y).<br />
Donc il existe une base orthonormale (e2, …, en+1) <strong>de</strong> E’ formée <strong>de</strong> vecteurs propres <strong>de</strong> u’.<br />
Mais ces vecteurs sont aussi vecteurs propres <strong>de</strong> u et en réunissant cette famille à e1, on obtient une<br />
base orthonormale (e1, …, en+1) <strong>de</strong> E, formée <strong>de</strong> vecteurs propres <strong>de</strong> E, ce qui termine la récurrence.<br />
Théorème 8.4 : diagonalisabilité <strong>de</strong>s matrices symétriques réelles<br />
Soit : n ≥ 1.<br />
Soit : A ∈ Mn(), une matrice symétrique réelle.<br />
Alors A est diagonalisable et il est possible <strong>de</strong> la diagonaliser par l’intermédiaire d’une matrice<br />
orthogonale.<br />
Démonstration :<br />
Si u désigne l’endomorphisme <strong>de</strong> <br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 19 -<br />
n canoniquement associé à A, il est autoadjoint pour le produit<br />
2<br />
t
<strong>scalaire</strong> canonique <strong>de</strong> n , puisque la base canonique est orthonormale pour ce produit <strong>scalaire</strong> et A est<br />
symétrique réelle.<br />
Donc u est diagonalisable et ses espaces propres sont orthogonaux.<br />
Si on considère alors une base <strong>de</strong> vecteurs propres <strong>de</strong> u formée <strong>de</strong> la réunion <strong>de</strong> bases orthonormales<br />
<strong>de</strong>s différents espaces propres <strong>de</strong> u, on obtient une base <strong>de</strong> vecteurs propres <strong>de</strong> u qui est une base<br />
orthonormale.<br />
La matrice <strong>de</strong> passage P <strong>de</strong> la base canonique à cette base <strong>de</strong> vecteurs propres est alors orthogonale<br />
et si on note enfin D la matrice P -1 .A.P, elle est diagonale, autrement dit on vient <strong>de</strong> diagonaliser A par<br />
l’intermédiaire d’une matrice orthogonale.<br />
Théorème 8.5 et définition 8.1 : endomorphisme autoadjoint associé à une forme bilinéaire<br />
symétrique<br />
Soit (E,(.|.)) un espace vectoriel euclidien, et ϕ une forme bilinéaire symétrique sur E.<br />
Il est possible <strong>de</strong> définir un endomorphisme u <strong>de</strong> E, autoadjoint, tel que : ∀ (x,y) ∈ E 2 , ϕ(x,y) = (x|u(y)).<br />
Démonstration :<br />
Soit B une base orthonormale <strong>de</strong> E, A la matrice <strong>de</strong> ϕ dans B et u l’endomorphisme <strong>de</strong> E dont la<br />
matrice dans la base B est A.<br />
Puisque ϕ est une forme symétrique, A est symétrique et donc puisque la base B est orthonormale, u<br />
est autoadjoint.<br />
Enfin, on constate bien que : ∀ (x,y) ∈ E 2 , ϕ(x,y) = t X.A.Y = t X.(A.Y) = (x|u(y)), où on a noté X et Y les<br />
matrices colonnes <strong>de</strong>s coordonnées dans la base B <strong>de</strong>s vecteurs x et y utilisés.<br />
Théorème 8.6 : réduction <strong>de</strong>s formes bilinéaires symétriques<br />
Soit (E,(.|.)) un espace vectoriel euclidien, et ϕ une forme bilinéaire symétrique sur E.<br />
Il existe une base orthonormale <strong>de</strong> E dans laquelle ϕ peut s’exprimer sous la forme :<br />
n<br />
n<br />
∀ (x,y) ∈ E², x = ∑ x i. ei<br />
, y = ∑ yi<br />
. ei<br />
, ϕ(<br />
x,<br />
y)<br />
= ∑ λ i.<br />
x i.<br />
yi<br />
,<br />
i=<br />
1<br />
i=<br />
1<br />
i=<br />
1<br />
où les λi sont les valeurs propres <strong>de</strong> l’endomorphisme u associé à ϕ défini dans le théorème 8.5.<br />
Démonstration :<br />
Puisque l’endomorphisme u est autoadjoint, il existe une base B <strong>de</strong> E, orthonormale telle que :<br />
D = mat(u,B) est diagonale.<br />
Dans ce cas, on constate que :<br />
∀ (x,y) ∈ E 2 , ϕ(x,y) = (x|u(y)) = t X.D.Y = ∑<br />
i=<br />
1<br />
n<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 20 -<br />
n<br />
λ . x . y ,<br />
i<br />
i<br />
i<br />
où X et Y sont les matrices colonnes <strong>de</strong>s coordonnées dans B <strong>de</strong>s vecteurs x et y utilisés, et la matrice<br />
D étant constituée <strong>de</strong>s valeurs propres λ1, …, λn <strong>de</strong> u.<br />
9. Réduction <strong>de</strong>s matrices <strong>de</strong> O(2) et O(3), endomorphismes orthogonaux en dimension 2 ou 3.<br />
Théorème 9.1 : éléments <strong>de</strong> O(2) : matrices orthogonales 2××××2<br />
Soit : A ∈ O(2), une matrice orthogonale <strong>de</strong> taille 2×2.<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎞<br />
• si : <strong>de</strong>t(A) = +1, il existe un réel θ tel que : A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
cos( θ)<br />
⎠<br />
⎛cos(<br />
θ)<br />
sin( θ)<br />
⎞<br />
• si : <strong>de</strong>t(A) = – 1, il existe un réel θ tel que : A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
− cos( θ)<br />
⎠<br />
Démonstration :<br />
⎛a<br />
c ⎞<br />
Notons : A = ⎜ ⎟ ∈ O(2).<br />
⎝b<br />
d⎠<br />
Alors dans tous les cas : a 2 + b 2 = c 2 + d 2 = 1, et : a.c + b.d = 0, puisque les vecteurs colonnes <strong>de</strong> A<br />
constituent une base orthonormale <strong>de</strong> 2 muni <strong>de</strong> son produit <strong>scalaire</strong> canonique.<br />
Donc il existe θ et θ’ réels tels que : a = cos(θ), b = sin(θ), c = sin(θ’), d = cos(θ’).<br />
De plus, on a aussi : cos(θ).sin(θ’) + sin(θ).cos(θ’) = 0 = sin(θ + θ’), soit : θ + θ’ = k.π, avec : k ∈ .
⎛cos(<br />
θ)<br />
On peut donc écrire : A = ⎜<br />
⎝ sin( θ)<br />
Enfin, si :<br />
k<br />
− ( −1)<br />
. sin( θ)<br />
⎞<br />
⎟<br />
k<br />
( −1)<br />
. cos( θ)<br />
⎟<br />
.<br />
⎠<br />
⎛cos(<br />
θ)<br />
⎝ sin( θ)<br />
− sin( θ)<br />
⎞<br />
, et si :<br />
cos( θ)<br />
⎠<br />
⎛cos(<br />
θ)<br />
⎜<br />
⎝ sin( θ)<br />
sin( θ)<br />
⎞<br />
.<br />
− cos( θ)<br />
⎠<br />
• <strong>de</strong>t(A) = +1, alors : (-1) k = +1, et : A = ⎜<br />
⎟<br />
• <strong>de</strong>t(A) = – 1, alors : (-1) k = – 1, et : A = ⎟<br />
Théorème 9.2 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 2<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension 2, orienté.<br />
Soit u un endomorphisme orthogonal <strong>de</strong> E et A la matrice <strong>de</strong> u dans une base : B = (i,j), orthonormale<br />
directe <strong>de</strong> E.<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎞<br />
• si : <strong>de</strong>t(u) = +1, alors il existe un réel θ tel que : A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
cos( θ)<br />
⎠<br />
Si u n’est pas l’i<strong>de</strong>ntité <strong>de</strong> E, u est la rotation <strong>de</strong> E d’angle θ, θ étant donné par : 2.cos(θ) = tr(u).<br />
⎛cos(<br />
θ)<br />
sin( θ)<br />
⎞<br />
• si : <strong>de</strong>t(u) = – 1, alors il existe un réel θ tel que : A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
− cos( θ)<br />
⎠<br />
⎛ θ ⎞ ⎛ θ ⎞<br />
u est alors la symétrie orthogonale par rapport à la droite D d’équation : x . sin⎜<br />
⎟ − y.<br />
cos⎜<br />
⎟ = 0 , et<br />
⎝ 2 ⎠ ⎝ 2 ⎠<br />
θ<br />
l’angle <strong>de</strong> D avec la droite dirigée par i est égal à .<br />
2<br />
Démonstration :<br />
Si u est un endomorphisme orthogonal <strong>de</strong> E alors sa matrice représentative A dans une base<br />
orthonormale <strong>de</strong> E est alors orthogonale et on se trouve dans l’un <strong>de</strong>s <strong>de</strong>ux cas précé<strong>de</strong>nts.<br />
De plus, si :<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎞<br />
• <strong>de</strong>t(u) = +1, alors : <strong>de</strong>t(A) = +1, et : ∃ θ ∈ , A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
cos( θ)<br />
⎠<br />
Distinguons alors <strong>de</strong>ux cas.<br />
Si : θ = 0 (2.π), alors u est l’i<strong>de</strong>ntité <strong>de</strong> E sinon u est une rotation <strong>de</strong> E d’angle θ, et on obtient par :<br />
tr(A) = 2.cos(θ) = tr(u).<br />
Si par ailleurs :<br />
⎛cos(<br />
θ)<br />
sin( θ)<br />
⎞<br />
• <strong>de</strong>t(u) = – 1, alors : <strong>de</strong>t(A) = – 1, et : ∃ θ ∈ , A = ⎜<br />
⎟ .<br />
⎝ sin( θ)<br />
− cos( θ)<br />
⎠<br />
Puisqu’alors A est symétrique réelle, elle est diagonalisable et ses valeurs propres (réelles) λ1 et λ2<br />
vérifient, en utilisant trace et déterminant : λ1 + λ2 = 0, et : λ1.λ2 = – 1.<br />
Donc λ1 et λ2 valent 1 et – 1.<br />
⎛1<br />
0 ⎞<br />
La matrice <strong>de</strong> u dans une base <strong>de</strong> vecteurs propres est alors ⎜ ⎟ , et : u<br />
⎝0<br />
−1⎠<br />
2 = idE.<br />
u est donc bien une symétrie vectorielle.<br />
Comme enfin, les espaces propres <strong>de</strong> u sont orthogonaux, c’est une symétrie orthogonale.<br />
La droite par rapport à laquelle s’opère cette symétrie est l’ensemble <strong>de</strong>s vecteurs invariants <strong>de</strong> u<br />
⎧ ⎛ θ ⎞ ⎡ ⎛ θ ⎞ ⎛ θ ⎞ ⎤<br />
⎧(cos(<br />
θ)<br />
−1).<br />
x + sin( θ).<br />
y = 0<br />
⎪−<br />
2.<br />
sin⎜<br />
⎟.<br />
⎪<br />
⎢sin⎜<br />
⎟.<br />
x − cos⎜<br />
⎟.<br />
y⎥<br />
= 0<br />
⎝ 2 ⎠<br />
donnés par : A.X = 0, soit : ⎨<br />
, ou :<br />
⎣ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎦<br />
⎨<br />
.<br />
⎩sin(<br />
θ).<br />
x − (cos( θ)<br />
+ 1).<br />
y = 0 ⎪ ⎛ θ ⎞ ⎡ ⎛ θ ⎞ ⎛ θ ⎞ ⎤<br />
+ 2.<br />
cos⎜<br />
⎟.<br />
=<br />
⎪ ⎢sin⎜<br />
⎟.<br />
x − cos⎜<br />
⎟.<br />
y⎥<br />
0<br />
⎩ ⎝ 2 ⎠ ⎣ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎦<br />
Comme enfin, soit le sinus, soit le cosinus mis en facteur est non nul, on en déduit bien que la droite<br />
invariante est la droite D dont l’équation dans la base B est bien celle annoncée.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 21 -
⎛ ⎛ θ ⎞ ⎛ θ ⎞⎞<br />
Il est alors immédiat que le vecteur ⎜cos<br />
⎜ ⎟,<br />
sin⎜<br />
⎟⎟<br />
est directeur <strong>de</strong> D et l’angle <strong>de</strong> ce vecteur avec i<br />
⎝ ⎝ 2 ⎠ ⎝ 2 ⎠⎠<br />
est bien θ/2.<br />
Théorème 9.3 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 3<br />
Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension 3, orienté.<br />
Soit u un endomorphisme orthogonal <strong>de</strong> E.<br />
• si : <strong>de</strong>t(u) = +1, et si u n’est pas l’i<strong>de</strong>ntité <strong>de</strong> E, alors u admet une droite Δ <strong>de</strong> vecteurs invariants.<br />
Soit alors P le plan orthogonal à Δ.<br />
Si : tr(u) = – 1, alors u est la symétrie orthogonale par rapport à Δ.<br />
Si : tr(u) ≠ – 1, alors pour x un vecteur non nul <strong>de</strong> P (ou orthogonal à Δ), le vecteur : k = x∧u(x), est un<br />
vecteur non nul <strong>de</strong> Δ.<br />
Si dans ce cas, on oriente Δ avec k et P avec l’orientation induite par celle <strong>de</strong> Δ, u est alors la rotation<br />
d’axe Δ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) + 1 = tr(u).<br />
• si : <strong>de</strong>t(u) = – 1, et si u n’est pas –idE, alors l’ensemble <strong>de</strong>s vecteurs changés en leur opposé par u est<br />
une droite Δ <strong>de</strong> E.<br />
Notons alors P le plan orthogonal à Δ.<br />
Si : tr(u) = +1, u est la symétrie orthogonale par rapport à P.<br />
Si : tr(u) ≠ +1, alors pour x un vecteur non nul <strong>de</strong> P (ou orthogonal à Δ), le vecteur : k = x∧u(x), est<br />
encore un vecteur non nul <strong>de</strong> Δ.<br />
Si dans ce cas, on oriente Δ avec k,et P avec l’orientation induite par celle <strong>de</strong> Δ, alors u est la composée<br />
<strong>de</strong> la rotation d’axe Δ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) – 1 = tr(u), et <strong>de</strong> la symétrie<br />
orthogonale <strong>de</strong> E par rapport à P.<br />
Démonstration :<br />
Tout d’abord, le polynôme caractéristique Pu <strong>de</strong> u est <strong>de</strong> <strong>de</strong>gré 3 à coefficients réels, donc il admet une<br />
racine réelle au moins.<br />
Distinguons alors <strong>de</strong>ux cas :<br />
• Pu admet trois racines réelles et ça ne peut être que 1 ou – 1,<br />
• Pu admet une racine réelle et <strong>de</strong>ux racines complexes conjuguées : λ1 = ±1, λ , et λ .<br />
Le produit <strong>de</strong>s racines <strong>de</strong> Pu vaut par ailleurs <strong>de</strong>t(u).<br />
Deux cas alors se présentent :<br />
• <strong>de</strong>t(u) = +1.<br />
Les racines <strong>de</strong> Pu sont donc (+1, +1, +1) ou (+1, – 1, – 1), si les trois racines sont réelles, et (1, λ, λ ),<br />
avec : |λ| = 1, s’il y a <strong>de</strong>s racines non réelles.<br />
On constate donc que 1 est toujours valeur propre <strong>de</strong> u.<br />
Si u n’est pas l’i<strong>de</strong>ntité, 1 est alors racine simple <strong>de</strong> Pu et l’espace propre associé est <strong>de</strong> dimension 1<br />
donc c’est une droite Δ <strong>de</strong> E.<br />
Notons alors P le plan orthogonal à Δ.<br />
Alors P est stable par u, car : ∀ (x,y) ∈ P×Δ, (u(x)|y) = (u(x)|u(y)) = (x|y) = 0, donc : u(x) ∈ Δ<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 22 -<br />
⊥ = P.<br />
Or l’endomorphisme u’ induit par u dans P est encore une isométrie <strong>de</strong> P (puisqu’il conserve lui aussi la<br />
norme, <strong>de</strong>s vecteurs <strong>de</strong> P cette fois).<br />
Dans une base orthonormale : B = (e1, e2, e3), <strong>de</strong> E adaptée alors à la décomposition : E = P ⊕ Δ, on a :<br />
⎛mat(<br />
u',<br />
B')<br />
0⎞<br />
mat(u,B) = ⎜<br />
⎟ , où B’ est une base orthonormale <strong>de</strong> P.<br />
⎝ 0 1⎠<br />
On constate alors que : <strong>de</strong>t(u) = <strong>de</strong>t(u’), et donc : <strong>de</strong>t(u’) = +1.<br />
Le théorème 9.2 montre alors que :<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
0⎞<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎞<br />
⎜<br />
⎟<br />
∃ θ ∈ , mat(u’,B’) = ⎜<br />
⎟ , et : mat(u,B) = ⎜ sin( θ)<br />
cos( θ)<br />
0⎟<br />
.<br />
⎝ sin( θ)<br />
cos( θ)<br />
⎠<br />
⎜<br />
⎟<br />
⎝ 0 0 1⎠<br />
Si maintenant : tr(u) = – 1, cela signifie que : 2.cos(θ) + 1 = -1, et : π = 0 (2.π).<br />
⎛−<br />
1 0 0⎞<br />
⎜ ⎟<br />
La matrice <strong>de</strong> u dans la base précé<strong>de</strong>nte est alors : ⎜ 0 −1<br />
0⎟<br />
, et u est bien la symétrie orthogonale<br />
⎜ ⎟<br />
⎝ 0 0 1⎠
par rapport à la droite Δ.<br />
Si en revanche : tr(u) ≠ – 1, alors u’ est la rotation <strong>de</strong> P d’angle +θ si P est orienté avec la base<br />
précé<strong>de</strong>nte, l’angle θ étant donné par : tr(u) = tr(mat(u,B)) = 2.cos(θ) + 1.<br />
Plus généralement, si x est un vecteur non nul <strong>de</strong> P, alors u(x) est non colinéaire à x puisque sinon u’<br />
admettrait <strong>de</strong>s valeurs propres réelles ce qui n’est pas la cas.<br />
Donc la famille (x, u(x), x∧u(x)) est une famille libre <strong>de</strong> E, donc une base <strong>de</strong> E, directe.<br />
Si on oriente alors Δ avec : k = x ∧ u(x), et P avec l’orientation induite par ce choix sur Δ, la famille<br />
(x, u(x)) est une base directe <strong>de</strong> P et la rotation dans le plan P s’effectue dans le sens direct.<br />
Reste à examiner le cas :<br />
• <strong>de</strong>t(u) = – 1.<br />
Les racines <strong>de</strong> Pu sont alors : (– 1, – 1, – 1), (– 1, +1, +1), ou : (– 1, λ, λ ).<br />
– 1 est alors toujours valeur propre <strong>de</strong> u.<br />
Si u n’est pas – idE, cette valeur propre est simple et l’espace propre associé est <strong>de</strong> dimension 1, soit<br />
une droite vectorielle Δ <strong>de</strong> E.<br />
Notons encore P le plan orthogonal à Δ, et s la symétrie orthogonale <strong>de</strong> E par rapport à P.<br />
⎛1<br />
0 0 ⎞<br />
⎜ ⎟<br />
Pour une base B adaptée à la décomposition : E = P ⊕ Δ, on a alors : mat(s,B) = ⎜0<br />
1 0 ⎟ , et la<br />
⎜ ⎟<br />
⎝0<br />
0 −1⎠<br />
composée sou est une isométrie <strong>de</strong> E, positive puisque : <strong>de</strong>t(s) = <strong>de</strong>t(u) = – 1, Δ étant <strong>de</strong> plus invariante<br />
par cette isométrie.<br />
D’après ce qu’on vient juste d’établir, on peut en déduire que :<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
0⎞<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
0 ⎞<br />
⎜<br />
⎟<br />
⎜<br />
⎟<br />
∃ θ ∈ , mat(sou,B) = ⎜ sin( θ)<br />
cos( θ)<br />
0⎟<br />
, et : mat(u,B) = ⎜ sin( θ)<br />
cos( θ)<br />
0 ⎟ .<br />
⎜<br />
⎟<br />
⎝ 0 0 1<br />
⎜<br />
⎟<br />
⎠<br />
⎝ 0 0 −1⎠<br />
Dans le cas où : cos(u) = – 1, u est alors – idE, mais ce cas est écarté ici, sinon <strong>de</strong>ux cas se présentent :<br />
tr(u) = +1, (soit : cos(θ) = 1) et u est alors la symétrie orthogonale par rapport à Δ,<br />
tr(u) ≠ +1, (soit : cos(θ) ≠ 1) et u est la composée <strong>de</strong> s et d’une rotation d’axe Δ.<br />
Les éléments géométriques <strong>de</strong> cette rotation s’obtiennent alors comme précé<strong>de</strong>mment, notamment pour<br />
tout ce qui concernent les différentes orientations d’espaces, avec comme différence le fait que son<br />
angle est cette fois donné par : tr(u) = tr(mat(u,B)) = 2.cos(θ) – 1.<br />
Théorème 9.4 : éléments <strong>de</strong> O(3) : matrices orthogonales 3××××3<br />
Soit : A ∈ O(3), une matrice orthogonale <strong>de</strong> taille 3×3.<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎜<br />
• si : <strong>de</strong>t(A) = +1, alors : ∃ θ ∈ , P ∈ O(3), A = P. ⎜ sin( θ)<br />
cos( θ)<br />
⎜<br />
⎝ 0 0<br />
⎛cos(<br />
θ)<br />
− sin( θ)<br />
⎜<br />
• si : <strong>de</strong>t(A) = – 1, alors : ∃ θ ∈ , P ∈ O(3), A = P. ⎜ sin( θ)<br />
cos( θ)<br />
⎜<br />
⎝ 0 0<br />
0⎞<br />
⎟<br />
0⎟<br />
.<br />
1⎟<br />
⎠<br />
t P.<br />
0 ⎞<br />
⎟<br />
0 ⎟ .<br />
−1⎟<br />
⎠<br />
t P.<br />
Démonstration :<br />
Si on appelle u l’endomorphisme canoniquement associé (dans 3 muni <strong>de</strong> son produit <strong>scalaire</strong><br />
canonique), u est un endomorphisme orthogonal <strong>de</strong> 3 , donc il existe comme on l’a vu dans la<br />
démonstration du théorème 9.3 une base orthonormale <strong>de</strong> 3 dans laquelle la matrice <strong>de</strong> u est d’un <strong>de</strong>s<br />
<strong>de</strong>ux types proposés (la différence se faisant par l’examen du déterminant <strong>de</strong> u).<br />
Il suffit alors d’appeler P la matrice <strong>de</strong> passage <strong>de</strong> la base canonique <strong>de</strong> 3 à la base B évoquée<br />
au-<strong>de</strong>ssus : cette matrice est orthogonale, d’où le résultat annoncé.<br />
Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 23 -