11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme

11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme 11 - Produit scalaire Cours complet - CPGE Dupuy de Lôme

cpgedupuydelome.fr
from cpgedupuydelome.fr More from this publisher
28.07.2013 Views

Produit scalaire. Chap. 11 : cours complet. 1. Formes bilinéaires symétriques, formes quadratiques. Définition 1.1 : forme bilinéaire symétrique Théorème 1.1 : espace vectoriel des formes bilinéaires sur un -espace vectoriel Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée Définition 1.3 : forme bilinéaire symétrique positive Théorème 1.3 : inégalité de Cauchy-Schwarz, cas réel 2. Produit scalaire réel ou complexe. Définition 2.1 : produit scalaire sur un -espace vectoriel, espace préhilbertien réel Théorème 2.1 : exemples classiques dans le cas réel Définition 2.2 : produit scalaire hermitien sur un -espace vectoriel, espace préhilbertien complexe Théorème 2.2 : exemples classiques dans le cas complexe Théorème 2.3 : inégalité de Cauchy-Schwarz dans le cas complexe Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne, définie) Théorème 2.4 : équivalence non dégénérée ⇔ définie Théorème 2.5 : cas d’égalité dans l’inégalité de Cauchy-Schwarz pour un produit scalaire Définition 2.4 et théorème 2.6 : norme et distance associée à un produit scalaire, inégalité de Minkowski Théorème 2.7 : égalités dites « de polarisation » 3. Orthogonalité. Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale, orthonormale Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale Théorème 3.2 : de Pythagore Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation de Gram-Schmidt Définition 3.2 : sous-espaces vectoriels orthogonaux Théorème 3.4 : cas de sous-espaces vectoriels de dimension finie Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux Théorème 3.6 : caractérisation en dimension finie des supplémentaires orthogonaux Théorème 3.7 et définition 3.5 : somme directe orthogonale de sous-espaces vectoriels 4. Espaces euclidiens et hermitiens. Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien Théorème 4.1 : existence de bases orthonormales dans les espaces euclidiens et hermitiens Théorème 4.2 : de la base incomplète orthogonale ou orthonormale Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual Théorème 4.4 : caractérisation matricielle des bases orthogonales ou orthonormales Théorème 4.5 : expression matricielle du produit scalaire, cas réel Théorème 4.6 : expression matricielle du produit scalaire, cas complexe 5. Projections orthogonales. Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel de dimension finie Théorème 5.2 : cas d’un hyperplan d’un espace euclidien Théorème 5.3 : expression de la projection orthogonale sur un sous-espace vectoriel de dimension finie Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel de dimension finie Théorème 5.5 : inégalité de Bessel 6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien. Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien Théorème 6.2 : involution : u a u* Définition 6.2 : endomorphisme autoadjoint Théorème 6.3 : caractérisation matricielle des endomorphismes autoadjoints Théorème 6.4 : espace vectoriel des endomorphismes autoadjoints Théorème 6.5 : caractérisation par leur adjoint des projecteurs orthogonaux d’un espace vectoriel euclidien Chapitre 11 : Produit scalaire – cours complet. - 1 -

<strong>Produit</strong> <strong>scalaire</strong>. Chap. <strong>11</strong> : cours <strong>complet</strong>.<br />

1. Formes bilinéaires symétriques, formes quadratiques.<br />

Définition 1.1 : forme bilinéaire symétrique<br />

Théorème 1.1 : espace vectoriel <strong>de</strong>s formes bilinéaires sur un -espace vectoriel<br />

Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique<br />

Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée<br />

Définition 1.3 : forme bilinéaire symétrique positive<br />

Théorème 1.3 : inégalité <strong>de</strong> Cauchy-Schwarz, cas réel<br />

2. <strong>Produit</strong> <strong>scalaire</strong> réel ou complexe.<br />

Définition 2.1 : produit <strong>scalaire</strong> sur un -espace vectoriel, espace préhilbertien réel<br />

Théorème 2.1 : exemples classiques dans le cas réel<br />

Définition 2.2 : produit <strong>scalaire</strong> hermitien sur un -espace vectoriel, espace préhilbertien complexe<br />

Théorème 2.2 : exemples classiques dans le cas complexe<br />

Théorème 2.3 : inégalité <strong>de</strong> Cauchy-Schwarz dans le cas complexe<br />

Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne, définie)<br />

Théorème 2.4 : équivalence non dégénérée ⇔ définie<br />

Théorème 2.5 : cas d’égalité dans l’inégalité <strong>de</strong> Cauchy-Schwarz pour un produit <strong>scalaire</strong><br />

Définition 2.4 et théorème 2.6 : norme et distance associée à un produit <strong>scalaire</strong>, inégalité <strong>de</strong> Minkowski<br />

Théorème 2.7 : égalités dites « <strong>de</strong> polarisation »<br />

3. Orthogonalité.<br />

Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale, orthonormale<br />

Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale<br />

Théorème 3.2 : <strong>de</strong> Pythagore<br />

Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation <strong>de</strong> Gram-Schmidt<br />

Définition 3.2 : sous-espaces vectoriels orthogonaux<br />

Théorème 3.4 : cas <strong>de</strong> sous-espaces vectoriels <strong>de</strong> dimension finie<br />

Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel<br />

Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux<br />

Théorème 3.6 : caractérisation en dimension finie <strong>de</strong>s supplémentaires orthogonaux<br />

Théorème 3.7 et définition 3.5 : somme directe orthogonale <strong>de</strong> sous-espaces vectoriels<br />

4. Espaces euclidiens et hermitiens.<br />

Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien<br />

Théorème 4.1 : existence <strong>de</strong> bases orthonormales dans les espaces euclidiens et hermitiens<br />

Théorème 4.2 : <strong>de</strong> la base incomplète orthogonale ou orthonormale<br />

Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual<br />

Théorème 4.4 : caractérisation matricielle <strong>de</strong>s bases orthogonales ou orthonormales<br />

Théorème 4.5 : expression matricielle du produit <strong>scalaire</strong>, cas réel<br />

Théorème 4.6 : expression matricielle du produit <strong>scalaire</strong>, cas complexe<br />

5. Projections orthogonales.<br />

Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel <strong>de</strong> dimension finie<br />

Théorème 5.2 : cas d’un hyperplan d’un espace euclidien<br />

Théorème 5.3 : expression <strong>de</strong> la projection orthogonale sur un sous-espace vectoriel <strong>de</strong> dimension finie<br />

Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel <strong>de</strong> dimension finie<br />

Théorème 5.5 : inégalité <strong>de</strong> Bessel<br />

6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien.<br />

Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien<br />

Théorème 6.2 : involution : u a u*<br />

Définition 6.2 : endomorphisme autoadjoint<br />

Théorème 6.3 : caractérisation matricielle <strong>de</strong>s endomorphismes autoadjoints<br />

Théorème 6.4 : espace vectoriel <strong>de</strong>s endomorphismes autoadjoints<br />

Théorème 6.5 : caractérisation par leur adjoint <strong>de</strong>s projecteurs orthogonaux d’un espace vectoriel<br />

euclidien<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 1 -


7. Endomorphismes orthogonaux et matrices orthogonales.<br />

Définition 7.1 et théorème 7.1 : endomorphisme orthogonal dans un espace vectoriel euclidien<br />

Théorème 7.2 : bijectivité <strong>de</strong>s endomorphismes orthogonaux en dimension finie<br />

Théorème 7.3 : caractérisation par leur adjoint <strong>de</strong>s endomorphismes orthogonaux<br />

Définition 7.2 : matrice orthogonale<br />

Théorème 7.4 : caractérisation <strong>de</strong>s matrices orthogonales par leurs vecteurs lignes ou colonnes<br />

Théorème 7.5 : caractérisation matricielle <strong>de</strong>s endomorphismes orthogonaux<br />

Théorème 7.6 et définition 7.3 : les groupes (O(E),o) et (O(n),×)<br />

Définition 7.4 : isométries d’un espace vectoriel euclidien, isométries positives et négatives<br />

Théorème 7.7 : matrice <strong>de</strong> passage entre bases orthonormales<br />

8. Réduction <strong>de</strong>s endomorphismes autoadjoints d’un espace vectoriel euclidien et <strong>de</strong>s matrices<br />

symétriques réelles.<br />

Théorème 8.1 : valeurs propres d’une matrice symétrique réelle, d’un endomorphisme autoadjoint<br />

Théorème 8.2 : orthogonalité <strong>de</strong>s espaces propres d’un endomorphisme autoadjoint<br />

Théorème 8.3 : diagonalisabilité <strong>de</strong>s endomorphismes autoadjoints<br />

Théorème 8.4 : diagonalisabilité <strong>de</strong>s matrices symétriques réelles<br />

Théorème 8.5 et définition 8.1 : endomorphisme autoadjoint associé à une forme bilinéaire symétrique<br />

Théorème 8.6 : réduction <strong>de</strong>s formes bilinéaires symétriques<br />

9. Réduction <strong>de</strong>s matrices <strong>de</strong> O(2) et O(3), endomorphismes orthogonaux en dimension 2 ou 3.<br />

Théorème 9.1 : éléments <strong>de</strong> O(2) : matrices orthogonales 2×2<br />

Théorème 9.2 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 2<br />

Théorème 9.3 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 3<br />

Théorème 9.4 : éléments <strong>de</strong> O(3) : matrices orthogonales 3×3<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 2 -


<strong>Produit</strong> <strong>scalaire</strong>. Chap. <strong>11</strong> : cours <strong>complet</strong>.<br />

1. Formes bilinéaires symétriques, formes quadratiques.<br />

Définition 1.1 : forme bilinéaire symétrique<br />

Soit E un -espace vectoriel.<br />

On dit que ϕ est une forme bilinéaire symétrique sur E si et seulement si :<br />

• ϕ est une application <strong>de</strong> E×E dans ,<br />

• ϕ est bilinéaire :<br />

∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />

ϕ(λ.x + μ.y,x’) = λ.ϕ(x,x’) + μ.ϕ(y,x’), et :<br />

ϕ(x,λ.x’ + μ.y’) = λ.ϕ(x,x’) + μ.ϕ(x,y’),<br />

• ϕ est symétrique : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ(y,x).<br />

Théorème 1.1 : espace vectoriel <strong>de</strong>s formes bilinéaires sur un -espace vectoriel<br />

Soit E un -espace vectoriel.<br />

Les lois suivantes permettent <strong>de</strong> munir l’ensemble <strong>de</strong>s formes bilinéaires L2(E,) sur E d’une structure<br />

<strong>de</strong> -espace vectoriel :<br />

• ∀ (ϕ,ψ) ∈ L2(E,) 2 , (ϕ + ψ) est définie par : ∀ (x,y) ∈ E 2 , (ϕ + ψ)(x,y) = ϕ(x,y) + ψ(x,y),<br />

• ∀ ϕ ∈ L2(E,), ∀ λ ∈ , λ.ϕ est définie par : ∀ (x,y) ∈ E 2 , (λ.ϕ) (x,y) = λ.ϕ(x,y).<br />

Démonstration :<br />

Il est immédiat que ce sont bien <strong>de</strong>s lois internes et externes sur L2(E,), puisque les objets que l’on<br />

obtient sont bien <strong>de</strong>s éléments <strong>de</strong> cet ensemble.<br />

Par ailleurs, les propriétés habituelles qui en font un espace vectoriel sont bien vérifiées.<br />

Définition 1.2 : forme quadratique associé à une forme bilinéaire symétrique, forme quadratique<br />

Soit E un -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique définie sur E.<br />

L’application φ définie sur E par : ∀ x ∈ E, φ(x) = ϕ(x,x), est appelée forme quadratique associée à ϕ.<br />

Plus généralement, on dit que φ est une forme quadratique sur E si et seulement si il existe une forme<br />

bilinéaire symétrique ϕ définie sur E, telle que φ soit la forme quadratique associée à ϕ sur E.<br />

Théorème 1.2 : lien entre forme bilinéaire symétrique et forme quadratique associée<br />

Soit E un -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique définie sur E, et φ sa forme quadratique associée.<br />

Alors : ∀ (x,y) ∈ E 2 1 1<br />

, ϕ(x,y) = . [φ(x + y) – φ(x) – φ(y)] = .[φ(x + y) – φ(x – y)].<br />

2<br />

4<br />

Démonstration :<br />

Soient donc x et y dans E.<br />

On a alors : φ(x+y) = ϕ(x+y,x+y) = ϕ(x,x) + 2.ϕ(x,y) + ϕ(y,y) = φ(x) + 2.ϕ(x,y) + φ(y), d’où le premier point.<br />

De même : φ(x – y) = φ(x) – 2.ϕ(x,y) + φ(y), et on en déduit la <strong>de</strong>uxième égalité.<br />

Définition 1.3 : forme bilinéaire symétrique positive<br />

Soit E un -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique définie sur E.<br />

On dit que ϕ est positive si et seulement si : ∀ x a E, ϕ(x,x) ≥ 0, soit encore : φ(x) ≥ 0, pour la forme<br />

quadratique φ associée à ϕ.<br />

Théorème 1.3 : inégalité <strong>de</strong> Cauchy-Schwarz, cas réel<br />

Soit E un -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique sur E.<br />

Si ϕ est <strong>de</strong> plus positive, alors : ∀ (x,y) ∈ E², ϕ ( x,<br />

y)<br />

≤ ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 3 -


Démonstration :<br />

Soit ψ la fonction définie <strong>de</strong> dans par : ∀ t ∈ , ψ(t) = ϕ(x + t.y,x + t.y).<br />

Puisque ϕ est positive, ψ est également à valeurs dans + .<br />

Par ailleurs : ∀ t ∈ , ψ(t) = ϕ(x,x) + 2.t.ϕ(x,y) + t 2 .ϕ(y,y), en utilisant la bilinéarité et la symétrie <strong>de</strong> ϕ.<br />

Distinguons alors <strong>de</strong>ux cas :<br />

• ϕ(y,y) = 0.<br />

Dans ce cas, ψ est une fonction affine <strong>de</strong> t qui reste positive. Elle est donc constante et : ϕ(x,y) = 0.<br />

On a bien alors : 0 = ϕ ( x,<br />

y)<br />

≤ ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

= 0.<br />

• ϕ(y,y) ≠ 0, et donc : ϕ(y,y) > 0.<br />

Dans ce cas ψ est une fonction polynomiale du second <strong>de</strong>gré.<br />

Comme elle reste positive, elle admet au plus une racine réelle (double) et son discriminant est négatif<br />

ou nul, soit : Δ = ϕ(x,y) 2 – ϕ(x,x).ϕ(y,y) ≤ 0, ce qui donne à nouveau : ϕ ( x,<br />

y)<br />

≤ ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

.<br />

2. <strong>Produit</strong> <strong>scalaire</strong> réel ou complexe.<br />

Définition 2.1 : produit <strong>scalaire</strong> sur un -espace vectoriel, espace préhilbertien réel<br />

Soit E un -espace vectoriel.<br />

On dit que ϕ est un produit <strong>scalaire</strong> sur E si et seulement si ϕ est une forme bilinéaire symétrique<br />

positive, non dégénérée, soit encore :<br />

• ϕ est une application <strong>de</strong> E×E dans ,<br />

• ϕ est bilinéaire :<br />

∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />

ϕ(λ.x + μ.y,x’) = λ.ϕ(x,x’) + μ.ϕ(y,x’), et :<br />

ϕ(x,λ.x’ + μ.y’) = λ.ϕ(x,x’) + μ.ϕ(x,y’),<br />

• ϕ est symétrique : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ(y,x),<br />

• ϕ est positive : ∀ x ∈ E, ϕ(x,x) ≥ 0,<br />

• ϕ est non dégénérée : ∀ x ∈ E, (∀ y ∈ E, ϕ(x,y) = 0) ⇒ (x = 0).<br />

On dit alors que (E,ϕ) est un espace préhilbertien réel.<br />

Théorème 2.1 : exemples classiques dans le cas réel<br />

Les applications suivantes définissent <strong>de</strong>s produits <strong>scalaire</strong>s sur les espaces vectoriels indiqués :<br />

• ∀ (x,y) ∈ ( n ) 2 n<br />

, x = (x1, …, xn), y = (y1, …, yn), (x,y) a∑ x i. yi<br />

, dans <br />

i=<br />

1<br />

n .<br />

• ∀ (f,g) ∈ (C 0 ([a,b],) 2 , (f,g) a ∫ b<br />

f ( t).<br />

g(<br />

t).<br />

dt , dans C<br />

a<br />

0 ([a,b], ), où [a,b] est un segment inclus dans .<br />

Démonstration :<br />

• L’application proposée (notons-la (.|.)) est correctement définie <strong>de</strong> ( n ) 2 dans .<br />

Il est clair qu’elle est symétrique puisque : ∀ (x,y) ∈ ( n ) 2 n<br />

, (x|y) = ∑<br />

n<br />

i.<br />

yi<br />

= ∑<br />

i=<br />

1<br />

i=<br />

1<br />

x y . x = (y|x).<br />

Elle est <strong>de</strong> plus linéaire par rapport à sa première variable puisque :<br />

∀ x ∈ n , ∀ (y,y’) ∈ n , ∀ (λ,λ’) ∈ 2 , (x|λ.y +λ’.y’) = λ.(x|y) + λ’.(x|y’), sans difficulté.<br />

Enfin, elle est non dégénérée, puisque si pour : x ∈ n , on a : ∀ y ∈ n , (x|y) = 0, en particulier pour :<br />

y = x, et cela donne : ∑ =<br />

n<br />

2<br />

x i = 0, et tous les xi étant positifs, on conclut à : ∀ 1 ≤ i ≤ n, xi = 0, soit : x = 0.<br />

i 1<br />

• De même, l’application (notée encore (.|.)) est correctement définie <strong>de</strong> E 2 dans , (puisque, en notant<br />

E l’espace vectoriel C 0 ([a,b],)), pour tout : (f,g) ∈ E 2 , f.g est continue est à valeurs réelles sur [0,1].<br />

De plus, elle est symétrique <strong>de</strong> façon immédiate.<br />

Puis elle est linéaire par rapport à sa <strong>de</strong>uxième variable (du fait <strong>de</strong> la linéarité <strong>de</strong> l’intégrale sur [a,b]).<br />

2<br />

Enfin, si pour : f ∈ E, on a : (f|g) = 0, en particulier pour : g = f, ce qui donne : f ( t)<br />

. dt = 0 .<br />

Mais comme la fonction f 2 est continue et positive sur [a,b], on en déduit bien que : f 2 = 0, puis : f = 0.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 4 -<br />

∫<br />

a<br />

b<br />

i<br />

i


Définition 2.2 : produit <strong>scalaire</strong> hermitien sur un -espace vectoriel, espace préhilbertien complexe<br />

Soit E un -espace vectoriel.<br />

On dit que ϕ est un produit <strong>scalaire</strong> hermitien sur E si et seulement si :<br />

• ϕ est une application <strong>de</strong> E×E dans ,<br />

• ϕ est sesquilinéaire (linéaire à droite, semi-linéaire à gauche) :<br />

∀ (x,y) ∈ E×E, ∀ (x’,y’) ∈ E×E, ∀ (λ,μ) ∈ ²,<br />

ϕ(λx + μy,x’) = λ .ϕ(x,x’) + μ .ϕ(y,x’), et :<br />

ϕ(x,λx’ + μy’) = λ.ϕ(x,x’) + μ.ϕ(x,y’)<br />

• ϕ est à symétrie hermitienne : ∀ (x,y) ∈ E×E, ϕ(x,y) = ϕ ( y,<br />

x)<br />

,<br />

• ϕ est positive : ∀ x ∈ E, ϕ(x,x) ≥ 0,<br />

• ϕ est non dégénérée : ∀ x ∈ E, (∀ y ∈ E, ϕ(x,y) = 0) ⇒ (x = 0).<br />

On dit alors que (E,ϕ) est un espace préhilbertien complexe.<br />

Théorème 2.2 : exemples classiques dans le cas complexe<br />

Les applications suivantes définissent <strong>de</strong>s produits <strong>scalaire</strong>s hermitiens sur les espaces vectoriels<br />

indiqués :<br />

• ∀ (x,y) ∈ ( n ) 2 n<br />

, x = (x1, …, xn), y = (y1, …, yn), (x,y) a ∑ x i. yi<br />

, dans <br />

i=<br />

1<br />

n .<br />

• ∀ (f,g) ∈ (C 0 ([a,b],) 2 , (f,g) a ∫ b<br />

f ( t)<br />

. g(<br />

t).<br />

dt , dans C<br />

a<br />

0 ([a,b], ), où [a,b] est un segment inclus dans .<br />

• ∀ (f,g) ∈ (C 0 2π(,)) 2 , (f,g) a ∫ π 2<br />

f ( t)<br />

. g(<br />

t).<br />

dt , dans C<br />

0<br />

0 2π(,), espace <strong>de</strong>s fonctions définies,<br />

continues et 2.π-périodiques, <strong>de</strong> dans .<br />

Démonstration :<br />

Les démonstrations vont s’inspirer <strong>de</strong>s démonstrations du théorème 2.1.<br />

• Pour le premier exemple, il est clair que l’application est correctement définie <strong>de</strong> n × n dans .<br />

Puis elle est à symétrie hermitienne car : ∀ (x,y) ∈ ( n ) 2 n<br />

, (y|x) = ∑ yi<br />

. x i<br />

n<br />

= ∑ x i.<br />

yi<br />

= ( x y)<br />

i=<br />

1<br />

i=<br />

1<br />

Elle est <strong>de</strong> plus linéaire par rapport à sa <strong>de</strong>uxième variable (comme dans le cas réel).<br />

Enfin, si pour : x ∈ n , on a : ∀ y ∈ n , (x|y) = 0, en particulier pour : y = x, ce qui conduit à :<br />

n<br />

∑<br />

i=<br />

1<br />

x<br />

2<br />

i<br />

= 0 , et comme tous les modules sont <strong>de</strong>s réels, finalement : ∀ 1 ≤ i ≤ n, |xi| = 0, soit : x = 0.<br />

• Dans ce <strong>de</strong>uxième cas, l’application proposée est correctement définie <strong>de</strong> l’espace E proposé dans ,<br />

puisque : ∀ (f,g) ∈ E 2 , f . g est définie et continue <strong>de</strong> [a,b] dans .<br />

Puis elle est encore à symétrie hermitienne car : ∀ (f,g) ∈ E 2 b<br />

, ∫ ( t)<br />

. f ( t).<br />

dt<br />

a ∫a<br />

= b<br />

g f ( t)<br />

. g(<br />

t).<br />

dt .<br />

Elle est également clairement linéaire par rapport à sa <strong>de</strong>uxième variable.<br />

Enfin, si pour : f ∈ E, on a : ∀ g ∈ E, ∫ b<br />

f ( t)<br />

. g(<br />

t).<br />

dt = 0, en particulier pour : g = f, ce qui donne :<br />

∫ b<br />

a<br />

a<br />

2<br />

f ( t)<br />

. dt = 0, et |f| 2 étant une fonction continue et positive sur [a,b], on en déduit que :<br />

∀ t ∈ [a,b], |f(t)| = 0, soit finalement : f = 0.<br />

• Pour ce troisième cas, les trois premiers points à vérifier sont i<strong>de</strong>ntiques à ceux qu’on vient <strong>de</strong> voir.<br />

Pour le quatrième, sous la même hypothèse que précé<strong>de</strong>mment, on constate que : ∀ t ∈ [0,2.π], f(t) = 0.<br />

f est donc nulle sur [0,2.π], mais étant <strong>de</strong> plus 2.π-périodique, elle est nulle sur , et : f = 0.<br />

Théorème 2.3 : inégalité <strong>de</strong> Cauchy-Schwarz dans le cas complexe<br />

Soit E un -espace vectoriel.<br />

Soit ϕ une forme sesquilinéaire, à symétrie hermitienne, positive sur E.<br />

Alors : ∀ (x,y) ∈ E², ϕ ( x,<br />

y)<br />

≤ ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

.<br />

Démonstration :<br />

Soit α un réel fixé dont on précisera la valeur plus tard.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 5 -<br />

.


Pour t réel, on pose : ψ(t) = ϕ(x + t.e -iα .y|x + t.e -iα .y).<br />

Comme ϕ est positive, ψ est également à valeurs positives.<br />

De plus, ϕ étant également à symétrie hermitienne et sesquilinéaire, on peut écrire :<br />

∀ t ∈ , ψ(t) = ϕ(x,x) + t.e iα ϕ(y,x) + t.e -iα .ϕ(x,y) + t 2 .ϕ(y,y).<br />

Distinguons alors (encore) <strong>de</strong>ux cas :<br />

• si : ϕ(x,y) = 0, l’inégalité <strong>de</strong> Cauchy-Schwarz est vérifiée puisque ϕ est positive.<br />

• si : ϕ(x,y) ≠ 0, notons alors : ϕ(x,y) = ρ.e iθ , avec : ρ > 0, et : θ ∈ , et choisissons : α = θ.<br />

On constate alors que : ∀ t ∈ , ψ(t) = ϕ(x,x) + 2.t.ρ + t 2 .ϕ(y,y).<br />

Alors comme dans le cas réel, on constate cependant ici que ϕ(y,y) ne peut être nul (fonction affine avec<br />

ρ non nul) et donc comme fonction polynomiale du second <strong>de</strong>gré, on a : Δ = ρ 2 – ϕ(x,x).ϕ(y,y) ≤ 0, soit à<br />

nouveau : ϕ ( x,<br />

y)<br />

≤ ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

.<br />

Définition 2.3 : forme bilinéaire, symétrique, définie (ou sesquilinéaire, à symétrie hermitienne,<br />

définie)<br />

Soit E un - ou -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique sur E, ou sesquilinéaire à symétrie hermitienne.<br />

On dit que la forme ϕ est définie si et seulement si : ∀ x ∈ E, (ϕ(x,x) = 0) ⇒ (x = 0).<br />

Théorème 2.4 : équivalence non dégénérée ⇔⇔⇔⇔ définie<br />

Soit E un - ou -espace vectoriel.<br />

Soit ϕ une forme bilinéaire symétrique sur E, ou sesquilinéaire à symétrie hermitienne.<br />

Alors ϕ est non dégénérée si et seulement si ϕ est définie.<br />

On peut donc remplacer « non dégénérée » par « définie » dans la définition d’un produit <strong>scalaire</strong>.<br />

Démonstration :<br />

On travaille par double implication.<br />

• [⇒]<br />

Si ϕ est non dégénérée, soit : x ∈ E, tel que : ϕ(x,x) = 0.<br />

On constate alors, d’après l’inégalité <strong>de</strong> Cauchy-Schwarz, que : ∀ y ∈ E, ϕ(x,y) = 0.<br />

Or ϕ étant non dégénérée, on en déduit que : x = 0, et ϕ est définie.<br />

• [⇐]<br />

Si ϕ est maintenant supposée définie et si x est tel que : ∀ y ∈ E, ϕ(x,y) = 0, alors en particulier pour :<br />

y = x, et on en déduit que : ϕ(x,x) = 0.<br />

Or ϕ étant supposée définie, on conclut bien que : x = 0.<br />

Théorème 2.5 : cas d’égalité dans l’inégalité <strong>de</strong> Cauchy-Schwarz pour un produit <strong>scalaire</strong><br />

Soit (E,ϕ) un espace préhilbertien, réel ou complexe.<br />

Alors : ∀ (x,y) ∈ E 2 , ϕ ( x,<br />

y)<br />

= ϕ(<br />

x,<br />

x)<br />

. ϕ(<br />

y,<br />

y)<br />

, si et seulement si (x,y) est liée.<br />

Démonstration :<br />

Si l’on reprend la démonstration <strong>de</strong> l’inégalité <strong>de</strong> Cauchy-Schwarz (dans le cas réel ou complexe), on<br />

constate que, si cette inégalité <strong>de</strong>vient une égalité, alors :<br />

• dans le cas où : ϕ(y,y) = 0, alors y est nul puisque ϕ comme produit <strong>scalaire</strong> est une forme définie,<br />

• dans le cas où : ϕ(y,y) ≠ 0, cela signifie dans les <strong>de</strong>ux cas (réel et complexe) que le discriminant <strong>de</strong> la<br />

fonction qui avait servi d’intermédiaire est nul, et donc que le trinôme noté ψ admet une racine double.<br />

Autrement dit, dans les <strong>de</strong>ux cas : ∃ λ ∈ (ou : λ.e -iα ), ϕ(x + λ.y,x + λ.y) = 0, et donc le vecteur (x + λ.y)<br />

est nul, ou : 1.x + λ.y = 0.<br />

Dans tous les cas, on constate bien que (x,y) est liée.<br />

Définition 2.4 et théorème 2.6 : norme et distance associée à un produit <strong>scalaire</strong>, inégalité <strong>de</strong><br />

Minkowski<br />

Soit (E,ϕ) un espace préhilbertien, réel ou complexe.<br />

Alors l’application N définie par : ∀ x ∈ E, x a N(x) = ϕ ( x,<br />

x)<br />

, est une norme sur E, appelée norme<br />

associée au produit <strong>scalaire</strong> ϕ.<br />

De même, l’application d définie sur E 2 par : ∀ (x,y) ∈ E 2 , d(x,y) = N(x – y), est appelée distance<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 6 -


associée à la norme N (ou au produit <strong>scalaire</strong> ϕ).<br />

Enfin, l’inégalité triangulaire vérifiée par N est appelée inégalité <strong>de</strong> Minkowski.<br />

Démonstration :<br />

Il y a donc quatre points à vérifier.<br />

• pour tout vecteur x <strong>de</strong> E, la quantité N(x) existe puisque ϕ(x,x) est un réel positif, et : N(x) ∈ + .<br />

• si pour : x ∈ E, on a : N(x) = 0, alors : ϕ(x,x) = 0, et ϕ comme produit <strong>scalaire</strong> est une forme définie,<br />

donc : x = 0.<br />

• pour : x ∈ E, et : λ ∈ (ou ), N(λ.x) = ϕ ( λ.<br />

x,<br />

λ.<br />

x)<br />

= λ . ϕ(<br />

x,<br />

x)<br />

= λ.<br />

ϕ(<br />

x,<br />

x)<br />

= |λ|.N(x).<br />

• enfin, pour : (x,y) ∈ E 2 , on a dans le cas réel :<br />

N(x+y) 2 = ϕ(x+y,x+y) = ϕ(x,x) + 2.ϕ(x,y) + ϕ(y,y) ≤ N(x) 2 + 2.N(x).N(y) + N(y) 2 = (N(x) + N(y)) 2 , d’où<br />

l’inégalité triangulaire pour N, et dans le cas complexe :<br />

N(x+y) 2 = ϕ(x,x) + 2.Re(ϕ(x,y)) + ϕ(y,y) ≤ N(x) 2 + 2.|ϕ(x,y)| + N(y) 2 ≤ N(x) 2 + 2.N(x).N(y) + N(y) 2 , et on<br />

termine comme dans le cas réel avec l’inégalité triangulaire.<br />

Théorème 2.7 : égalités dites « <strong>de</strong> polarisation »<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />

• dans le cas réel, on a les égalités suivantes : ∀ (x,y) ∈ E 2 ,<br />

2<br />

2<br />

x + y = x + y + 2.(x|y),<br />

2<br />

1<br />

(x|y) = .( x + y ² −<br />

2<br />

x ² −<br />

1<br />

y ²) = .( x + y ² −<br />

4<br />

x − y ²) .<br />

• dans le cas complexe, ces égalités <strong>de</strong>viennent : ∀ (x,y) ∈ E 2 ,<br />

2<br />

2<br />

x + y = x + y + 2.Re((x|y)),<br />

2<br />

1<br />

(x|y) = .( x + y ² − x − y ² − i.<br />

x + i.<br />

y ² + i.<br />

x − i.<br />

y ²) .<br />

4<br />

Démonstration :<br />

• Le cas réel a déjà été quasiment traité (théorème 1.2).<br />

Il suffit d’écrire : ∀ (x,y) ∈ E 2 ,<br />

2<br />

x + y = ( x + y x + y)<br />

= x + y + 2.(x|y), et :<br />

d’où les égalités proposées.<br />

• dans le cas complexe, on a : ∀ (x,y) ∈ E 2 ,<br />

2<br />

2<br />

2<br />

2<br />

2<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 7 -<br />

2<br />

2<br />

x − y = ( x − y x − y)<br />

= x + y – 2.(x|y),<br />

x + y = ( x + y x + y)<br />

= x + y + ( x y)<br />

+ ( y x)<br />

= x + y + ( x y)<br />

+ ( x y)<br />

= x + y + 2.Re((x|y)),<br />

puis si on développe l’expression suivante, le résultat est immédiat.<br />

3. Orthogonalité.<br />

Définition 3.1 : vecteurs orthogonaux, vecteurs unitaires (ou normés), famille orthogonale,<br />

orthonormale<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />

Deux vecteurs x et y <strong>de</strong> E sont dits orthogonaux pour (.|.) si et seulement si : (x|y) = 0.<br />

De même, un vecteur x <strong>de</strong> E est dit unitaires (ou normé) si et seulement si : x = 1.<br />

Soit (xi)i∈I, une famille <strong>de</strong> vecteurs <strong>de</strong> E.<br />

On dit que la famille est orthogonale pour (.|.) si et seulement si : ∀ (i,j) ∈ I 2 , (i ≠ j) ⇒ ((xi|xj) = 0).<br />

On dit que la famille est orthonormale pour (.|.) si et seulement si elle est orthogonale et si <strong>de</strong> plus, tous<br />

les vecteurs <strong>de</strong> la famille sont normés.<br />

Théorème 3.1 : liberté d’une famille orthogonale ou orthonormale<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />

Soit (xi)i∈I, une famille <strong>de</strong> vecteurs <strong>de</strong> E.<br />

Si la famille est orthogonale pour (.|.) et ne comporte pas le vecteur nul, elle est libre.<br />

Si la famille est orthonormale pour (.|.), elle est libre.<br />

2<br />

2<br />

2<br />

2<br />

2<br />

2


Démonstration :<br />

Comme les combinaisons linéaires qu’on peut envisager ne comporte toujours qu’au plus un nombre fini<br />

<strong>de</strong> coefficients non nuls, on peut noter la famille (xi)1≤i≤n, pour un entier n donné.<br />

Alors, si pour : (λi)1≤i≤n ∈ K n , on a : λ1.x1 + … + λn.xn = 0, alors :<br />

∀ 1 ≤ i ≤ n, (xi|λ1.x1 + … + λn.xn) = 0, et par linéarité par rapport à la <strong>de</strong>uxième variable, on obtient :<br />

∀ 1 ≤ i ≤ n, λi.<br />

i<br />

2<br />

x = 0, (puisqu la famille est orthogonale).<br />

Donc si tous les xi sont non nuls, on conclut bien au fait que : ∀ 1 ≤ i ≤ n, λi = 0, et la famille est libre.<br />

Si maintenant on considère une famille orthonormale, elle est orthogonale et ne contient pas le vecteur<br />

nul, donc elle est libre.<br />

Théorème 3.2 : <strong>de</strong> Pythagore<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />

Soit (xi)1≤i≤n, une famille finie orthogonale <strong>de</strong> vecteurs <strong>de</strong> E.<br />

Alors :<br />

1<br />

n<br />

2<br />

x + ... + x = x + ... + x .<br />

1<br />

2<br />

n<br />

2<br />

Démonstration :<br />

On peut par exemple procé<strong>de</strong>r par récurrence sur n.<br />

Pour : n = 2, si (x1, x2) est une famille orthogonale <strong>de</strong> E, le théorème 2.7 donne bien le résultat voulu.<br />

Si maintenant on suppose le résultat vrai pour tout famille orthogonale <strong>de</strong> n vecteurs <strong>de</strong> E (avec : n ≥ 2),<br />

alors étant donné une famille orthogonale (x1, …, xn+1) <strong>de</strong> vecteurs <strong>de</strong> E, la famille (x1 + … + xn, xn+1) est<br />

une famille <strong>de</strong> <strong>de</strong>ux vecteurs <strong>de</strong> E, orthogonale car: (x1 + … + xn|xn+1) = (x1|xn+1) + … + (xn|xn+1) = 0.<br />

Donc :<br />

2<br />

2<br />

2 2<br />

2<br />

x 1 ... + x n+<br />

1 = x1<br />

+ ... + x n + x n+<br />

1 = x1<br />

+ ... + x n + x n+<br />

1<br />

+ .<br />

Et la récurrence est terminée.<br />

Théorème 3.3 : procédé d’orthogonalisation et d’orthonormalisation <strong>de</strong> Gram-Schmidt<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe et . la norme associée à (.|.).<br />

Soit (xi)1≤i≤n, une famille libre <strong>de</strong> vecteurs <strong>de</strong> E.<br />

On peut construire une famille (e1, …, en) <strong>de</strong> vecteurs <strong>de</strong> E telle que :<br />

• ∀ 1 ≤ p ≤ n, ep ≠ 0,<br />

• ∀ 1 ≤ p ≤ n, ep ∈ Vect(x1, …, xp),<br />

• ∀ 1 ≤ i ≠ j ≤ n, (ei|ej) = 0.<br />

On a dans ce cas : ∀ 1 ≤ p ≤ n, Vect(x1, .., xp) = Vect(e1, …, ep).<br />

Par ailleurs, dans le cas réel, il existe une unique famille (ε1, …, εn) <strong>de</strong> vecteurs <strong>de</strong> E, telle que :<br />

• ∀ 1 ≤ p ≤ n, εp ∈ Vect(x1, …, xp),<br />

• ∀ 1 ≤ i ≠ j ≤ n, (εi|εj) = 0,<br />

• ∀ 1 ≤ p ≤ n, p 1 = ε ,<br />

• ∀ 1 ≤ p ≤ n, (εp|xp) > 0.<br />

On a encore dans ce cas : ∀ 1 ≤ p ≤ n, Vect(x1, .., xp) = Vect(ε1, …, εp).<br />

Démonstration :<br />

• orthogonalisation <strong>de</strong> la famille : on procè<strong>de</strong> à la construction par récurrence en montrant en même<br />

temps que la famille obtenue vérifie bien : ∀ 1 ≤ p ≤ n, Vect(e1, …, ep) = Vect(x1, …, xp).<br />

On doit alors prendre e1 colinéaire à x1, et il est possible <strong>de</strong> trouver e1 tel que : e1 ≠ 0, et : e1 ∈ Vect(x1).<br />

Il suffit pour cela <strong>de</strong> choisir par exemple : e1 = x1.<br />

On a alors en plus (et quelque soit en fait le choix <strong>de</strong> e1) : Vect(e1) = Vect(x1).<br />

Supposons maintenant que pour : 1 ≤ p ≤ n – 1, on ait construit une famille (e1, …, ep) telle qu’indiqué et<br />

supposons alors <strong>de</strong> plus que : Vect(e1, …, ep) = Vect(x1, …, xp).<br />

On cherche alors ep+1 tel que : ep+1 ∈ Vect(x1, …, xp+1), donc sous la forme : ep+1 = λ1.x1 + … + λp+1.xp+1.<br />

Mais puisqu’on a <strong>de</strong> plus supposé que : Vect(e1, …, ep) = Vect(x1, …, xp), on peut alors écrire ep+1 sous<br />

la forme : ep+1 = λ’1.e1 + … + λ’p.ep + λp+1.xp+1.<br />

On veut <strong>de</strong> plus que la famille (e1, …, ep+1) soit orthogonale, ce qui s’écrit :<br />

∀ 1 ≤ i ≤ p, (ei|ep+1) = 0 = λ’i.(ei|ep) + λp+1.(ei|xp+1),<br />

( ei<br />

x p+<br />

1)<br />

et comme les ei sont non nuls, pour : 1 ≤ i ≤ p, il est équivalent d’écrire : ∀ 1 ≤ i ≤ p, λ’i = − . λ 2 p+<br />

1 .<br />

e<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 8 -<br />

2<br />

i


⎡<br />

p ( e ⎤<br />

i x p+<br />

1)<br />

Autrement dit, le vecteur ep+1 est nécessairement <strong>de</strong> la forme : ep+1 = λp+1. ⎢x<br />

p+<br />

1 − ∑ . ei<br />

⎥ .<br />

2<br />

⎢ i=<br />

1 ⎣ ei<br />

⎥<br />

⎦<br />

Or le vecteur dans le crochet est non nul (puisque la famille (xp+1, e1, …, ep) est libre) donc il est possible<br />

<strong>de</strong> trouver un vecteur ep+1 répondant aux conditions imposées (en prenant : λp+1 ≠ 0).<br />

Enfin, on a : Vect(e1, …, ep+1) ⊂ Vect(e1, …, ep, xp+1) = Vect(x1, …, xp+1), vu l’écriture <strong>de</strong> ep+1.<br />

p ( ei<br />

x p+<br />

1)<br />

1<br />

Et comme <strong>de</strong> même, on a : x p+<br />

1 = ∑ . e 2 i + . e p+<br />

1 ,<br />

i=<br />

1 e λ p+<br />

1<br />

i<br />

on a aussi : Vect(x1, …, xp+1) ⊂ Vect(e1, …, ep+1), d’où l’égalité, et ceci quelque soit le choix <strong>de</strong> ep+1.<br />

La récurrence est donc terminée et l’existence d’une famille orthogonalisée établie.<br />

• orthonormalisation <strong>de</strong> la famille.<br />

Si on veut orthonormaliser la famille, alors la famille (ε1, …, εn) est une <strong>de</strong> celles construites<br />

précé<strong>de</strong>mment.<br />

Montrons qu’à chaque étape <strong>de</strong> la construction, il n’y a qu’un vecteur qui répond aux conditions.<br />

Pour ε1, on doit normer e1 et vérifier ensuite que : (ε1|x1) > 0.<br />

x 1<br />

x 1<br />

Cela donne donc : ε1 = ± , puis : ε1 = , pour que le produit <strong>scalaire</strong> soit positif.<br />

x<br />

x<br />

1<br />

1<br />

Si maintenant, pour : 1 ≤ p ≤ n – 1, on suppose tous les vecteurs εi, pour : 1 ≤ i ≤ p, construits <strong>de</strong> façon<br />

unique, alors les vecteurs εi sont colinéaires aux vecteurs ei précé<strong>de</strong>nts et εp+1 s’écrit :<br />

⎡<br />

p ( e ⎤<br />

i x p+<br />

1)<br />

εp+1 = λp+1. ⎢x<br />

p+<br />

1 − ∑ . ei<br />

⎥ = λp+1.yp+1.<br />

2<br />

⎢ i=<br />

1 ⎣ ei<br />

⎥<br />

⎦<br />

La fait que εp+1 doit être normé laisse <strong>de</strong>ux possibilités pour λp+1 (puisque le vecteur yp+1 est non nul,<br />

comme on l’a vu précé<strong>de</strong>mment), à savoir : λp+1 = ±<br />

Si on fixe alors λp+1 à l’une <strong>de</strong> ces valeurs, alors : 1 = (εp+1|εp+1) = λp+1.(εp+1|yp+1) = λp+1.(εp+1|xp+1),<br />

puisque εp+1 est orthogonal par construction aux vecteurs (ε1, …, εp).<br />

Donc (εp+1|xp+1) est non nul, et il suffit enfin <strong>de</strong> choisir : λp+1 = +<br />

1<br />

y<br />

, pour garantir que le produit<br />

<strong>scalaire</strong> (εp+1|xp+1) est strictement positif.<br />

Finalement, le vecteur εp+1 ainsi obtenu est le seul possible et il convient (au rang p+1).<br />

Par récurrence, on vient bien <strong>de</strong> démontrer l’existence et l’unicité <strong>de</strong> la famille orthonormale annoncée.<br />

Définition 3.2 : sous-espaces vectoriels orthogonaux<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />

On dit que F et G sont orthogonaux si et seulement si : ∀ (x,y) ∈ F×G, (x|y) = 0.<br />

On note alors parfois : F ⊥ G.<br />

Théorème 3.4 : cas <strong>de</strong> sous-espaces vectoriels <strong>de</strong> dimension finie<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E <strong>de</strong> dimension finie, <strong>de</strong> bases BF et BG.<br />

F et G sont orthogonaux si et seulement si tout vecteur <strong>de</strong> BF est orthogonal à tout vecteur <strong>de</strong> BG.<br />

Démonstration :<br />

On peut procé<strong>de</strong>r par double implication.<br />

• [⇒] si tout vecteur <strong>de</strong> F est orthogonal à tout vecteur <strong>de</strong> G, c’est en particulier vrai pour les vecteurs <strong>de</strong><br />

BF et <strong>de</strong> BG.<br />

• [⇐] puisque : F = Vect(BF), et : G = Vect(BG), la bilinéarité (ou sesquilinéarité) du produit <strong>scalaire</strong><br />

montre qu’alors, tout vecteur <strong>de</strong> F est orthogonal à tout vecteur <strong>de</strong> G si c’est vrai pour les vecteurs <strong>de</strong><br />

BF et <strong>de</strong> BG.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 9 -<br />

y<br />

1<br />

p+<br />

1<br />

.<br />

p+<br />

1


Définition 3.3 et théorème 3.5 : orthogonal d’une partie d’un espace vectoriel<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soit A une partie <strong>de</strong> E.<br />

On appelle orthogonal <strong>de</strong> A, noté A ⊥ ou A°, l’ensemble <strong>de</strong>s vecteurs <strong>de</strong> E orthogonaux à tous les<br />

vecteurs <strong>de</strong> A, soit : A ⊥ = { x ∈ E, ∀ y ∈ A, (x|y) = 0}.<br />

Pour toute partie A <strong>de</strong> E, A ⊥ est un sous-espace vectoriel <strong>de</strong> E.<br />

Démonstration :<br />

Il est clair que A ⊥ est inclus dans E.<br />

De plus : ∀ y ∈ A, (0|y) = 0, et : 0 ∈ A ⊥ .<br />

Enfin : ∀ (x,x’) ∈ (A ⊥ ) 2 , ∀ (λ,λ’) ∈ K 2 , ∀ y ∈ A, (λ.x + λ’.x’|y) = λ.(x|y) + λ’(x’|y) = 0, (en rajoutant une barre<br />

<strong>de</strong> conjugaison sur les <strong>scalaire</strong>s dans le cas complexe, ce qui ne change pas le résultat), et :<br />

(λ.x+λ’.x’) ∈ A ⊥ .<br />

Finalement, A ⊥ est bien un sous-espace vectoriel <strong>de</strong> E.<br />

Définition 3.4 : sous-espaces vectoriels supplémentaires orthogonaux, projecteurs orthogonaux<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />

On dit que F et G sont supplémentaires orthogonaux dans E si et seulement si F et G sont<br />

supplémentaires dans E et orthogonaux.<br />

⊥<br />

On note alors : E = F⊕<br />

G .<br />

Un projecteur <strong>de</strong> E est alors dit projecteur orthogonal, lorsque les <strong>de</strong>ux espaces qui permettent <strong>de</strong> le<br />

définir sont <strong>de</strong>s supplémentaires orthogonaux dans E.<br />

Théorème 3.6 : caractérisation en dimension finie <strong>de</strong>s supplémentaires orthogonaux<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soient F et G <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />

F et G sont supplémentaires orthogonaux dans E si et seulement si on obtient une base orthogonale <strong>de</strong><br />

E en réunissant une base orthogonale <strong>de</strong> F et une base orthogonale <strong>de</strong> G.<br />

Démonstration :<br />

Travaillons encore par double implication :<br />

• [⇒]<br />

Si F et G sont supplémentaires orthogonaux dans E, alors en réunissant <strong>de</strong>s bases orthogonales <strong>de</strong> F et<br />

<strong>de</strong> G, on obtient tout d’abord une base <strong>de</strong> E, et tous les vecteurs <strong>de</strong> la base <strong>de</strong> F étant orthogonaux à<br />

tous ceux <strong>de</strong> la base <strong>de</strong> G, la base <strong>de</strong> E obtenue est bien orthogonale.<br />

• [⇐]<br />

Si la réunion <strong>de</strong> <strong>de</strong>ux bases orthogonales <strong>de</strong> F et <strong>de</strong> G donne une base orthogonale <strong>de</strong> E, alors les<br />

vecteurs <strong>de</strong> la base <strong>de</strong> F et ceux <strong>de</strong> G sont orthogonaux entre eux et F et G sont orthogonaux d’après le<br />

théorème 3.4.<br />

De plus, il est clair que F et G sont supplémentaires dans E.<br />

Théorème 3.7 et définition 3.5 : somme directe orthogonale <strong>de</strong> sous-espaces vectoriels<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe.<br />

Soient F1, …, Fn <strong>de</strong>s sous-espaces vectoriels <strong>de</strong> E.<br />

Si les sous-espaces vectoriels sont orthogonaux <strong>de</strong>ux à <strong>de</strong>ux, alors la somme [F1 + … + Fn] est directe.<br />

On dit alors que les sous-espaces vectoriels sont en somme directe orthogonale, et on la note encore :<br />

n<br />

⊥ ⊥ ⊥<br />

⊥<br />

1 ⊕ F2<br />

⊕...<br />

⊕ Fn<br />

, ou : Fi<br />

i=<br />

1<br />

F<br />

⊕ .<br />

Démonstration :<br />

Soit un vecteur par exemple <strong>de</strong> l’intersection : (F1 + … + Fn-1) ∩ Fn.<br />

Alors on peut l’écrire : x = x1 + … + xn-1 = xn, chaque xi appartenant à l’espace Fi correspondant.<br />

On constate que : (x|x) = (xn|x1 + … + xn-1) = (xn|x1) + … + (xn-1|xn) = 0,<br />

et ce résultat est i<strong>de</strong>ntique en intervertissant les rôles <strong>de</strong> espaces.<br />

Finalement, la somme est bien directe.<br />

4. Espaces euclidiens et hermitiens.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 10 -


Définition 4.1 : espace vectoriel euclidien, espace vectoriel hermitien<br />

On appelle espace euclidien un espace vectoriel réel <strong>de</strong> dimension finie, muni d’un produit <strong>scalaire</strong>.<br />

On appelle <strong>de</strong> même espace hermitien un espace vectoriel complexe <strong>de</strong> dimension finie, muni d’un<br />

produit <strong>scalaire</strong> hermitien.<br />

Théorème 4.1 : existence <strong>de</strong> bases orthonormales dans les espaces euclidiens et hermitiens<br />

Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien.<br />

Il existe dans E <strong>de</strong>s bases orthonormales pour (.|.).<br />

Démonstration :<br />

Il suffit <strong>de</strong> considérer une base <strong>de</strong> E (donc une famille libre) et <strong>de</strong> lui appliquer le procédé<br />

d’orthonormalisation <strong>de</strong> Schmidt pour obtenir une nouvelle famille libre <strong>de</strong> n vecteurs <strong>de</strong> E (puisque<br />

orthogonale sans le vecteur nul) donc une base orthonormale <strong>de</strong> E.<br />

Théorème 4.2 : <strong>de</strong> la base incomplète orthogonale ou orthonormale<br />

Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien.<br />

Soit (x1, …, xp) une famille orthogonale <strong>de</strong> vecteurs <strong>de</strong> E, ne comportant pas le vecteur nul.<br />

Alors il est possible <strong>de</strong> compléter la famille (x1, …, xp) en une base orthogonale <strong>de</strong> E.<br />

De même, si (e1, …, ep) est une famille orthonormale <strong>de</strong> vecteurs <strong>de</strong> E, il est possible <strong>de</strong> compléter cette<br />

famille en une base orthonormale <strong>de</strong> E.<br />

Démonstration :<br />

On utilise cette fois le théorème <strong>de</strong> la base incomplète appliqué à la famille (x1, …, xp) et une base <strong>de</strong> E.<br />

La famille complétée peut alors être orthogonalisée suivant le procédé <strong>de</strong> Schimdt qui donne pour les p<br />

premiers vecteurs, les vecteurs x1, …, xp eux-mêmes.<br />

Dans le cas d’une famille (e1, …, ep) <strong>de</strong> départ, orthonormale, on applique l’orthonormalisation pour<br />

obtenir une base <strong>de</strong> E orthonormale, dont les premiers vecteurs sont encore (e1, …, ep).<br />

Théorème 4.3 : isomorphisme canonique d’un espace euclidien sur son dual<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

L’application <strong>de</strong> E dans E* qui au vecteur a fait correspondre la forme linéaire (a|.) est un isomorphisme<br />

d’espaces vectoriels.<br />

En particulier : ∀ f* ∈ E*, ∃ ! a ∈ E, ∀ x ∈ E, f*(x) = (a|x).<br />

Démonstration :<br />

• Montrons tout d’abord que pour : a ∈ E, donné, (a|.) est bien une forme linéaire.<br />

Pour cela : ∀ x ∈ E, (a|x) ∈ .<br />

Puis : ∀ (x,y) ∈ E 2 , ∀ (λ,μ) ∈ 2 , (a|(λ.x + μ.y)) = λ.(a|x) + μ.(a|y),<br />

du fait <strong>de</strong> la bilinéarité du produit <strong>scalaire</strong>.<br />

Donc (a|.) est bien un élément <strong>de</strong> E*.<br />

• Montrons maintenant que ω : a a (a|.), est elle-même une application linéaire <strong>de</strong> E dans E*.<br />

Pour cela : ∀ (a,b) ∈ E 2 , ∀ (λ,μ) ∈ 2 , ∀ x ∈ E,<br />

(ω(λ.a + μ.b))(x) = ((λ.a + μ.b)|x) = λ.(a|x) + μ.(b|x) = (λ.ω(a) + μ.ω(b))(x)<br />

et donc : ω(λ.a + μ.b) = λ.ω(a) + μ.ω(b).<br />

• Enfin, montrons que ω est injective, et pour cela, soit : a ∈ E, tel que : ω(a) = 0.<br />

Alors : ∀ x ∈ E, (a|x) = 0, donc a est orthogonal à E et : a = 0.<br />

Puisque pour terminer : dim(E) = dim(E*), on en déduit que ω est bien un isomorphisme <strong>de</strong> E sur E*.<br />

Théorème 4.4 : caractérisation matricielle <strong>de</strong>s bases orthogonales ou orthonormales, <strong>de</strong>s formes<br />

bilinéaires symétriques dans le cas réel<br />

Soit (E,(.|.)) un espace vectoriel euclidien ou hermitien <strong>de</strong> dimension n.<br />

Soit : B = (ei), une base <strong>de</strong> E.<br />

On note M la matrice du produit <strong>scalaire</strong> dans la base (ei) définie par : ∀ 1 ≤ i,j ≤ n, mi,j = (ei|ej).<br />

La matrice M est symétrique dans le cas où E est un espace euclidien.<br />

On a <strong>de</strong> plus les équivalences suivantes, que E soit un espace vectoriel euclidien ou hermitien :<br />

• (B est orthogonale) ⇔ (M est diagonale),<br />

• (B est orthonormale) ⇔ (M = In).<br />

Plus généralement, si M est la matrice d’une forme bilinéaire symétrique d’un espace euclidien E, alors<br />

M est symétrique.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - <strong>11</strong> -


Démonstration :<br />

Dans le cas général d’une forme bilinéaire symétrique ϕ (ou d’un produit <strong>scalaire</strong>) d’un espace vectoriel<br />

euclidien, il est clair que la matrice M est symétrique.<br />

En effet, on a : ∀ 1 ≤ i,j ≤ n, mi,j = ϕ(ei,ej) = ϕ(ej,ei) = mj,i.<br />

De plus, les <strong>de</strong>ux résultats suivants sont presque immédiats puisque :<br />

• (B est orthogonale) ⇔ (∀ 1 ≤ i ≠ j ≤ n, (ei|ej) = 0 = mi,j) ⇔ (M est diagonale).<br />

• (B est orthonormale) ⇔ (∀ 1 ≤ i,j ≤ n, (ei|ej) = δi,j) ⇔ (M = In).<br />

Théorème 4.5 : expression matricielle du produit <strong>scalaire</strong>, cas réel<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />

Soit : B = (ei), une base <strong>de</strong> E.<br />

Soient x et y <strong>de</strong>s vecteurs <strong>de</strong> E, et X et Y les matrices colonnes <strong>de</strong> leurs coordonnées dans B.<br />

Alors : (x|y) = t X.M.Y.<br />

Si B est orthonormale, on a <strong>de</strong> plus :<br />

• (x|y) = t X.Y = ∑<br />

i=<br />

1<br />

n<br />

• x = ∑<br />

i=<br />

1<br />

i<br />

i<br />

n<br />

( e x).<br />

e ,<br />

n<br />

x (forme canonique d’un produit <strong>scalaire</strong> réel dans une base orthonormale),<br />

i i y .<br />

2<br />

2<br />

2<br />

• x = ∑ x i = ∑(<br />

ei<br />

x)<br />

.<br />

i=<br />

1<br />

n<br />

i=<br />

1<br />

Démonstration :<br />

• Pour le premier point, il suffit <strong>de</strong> développer :<br />

On note pour commencer : Y’ = M.Y, et on a : ∀ 1 ≤ i ≤ n, y’i = ∑ m i, k.<br />

y k .<br />

k=<br />

1<br />

Puis t X.M.Y est une matrice à une ligne et une colonne et son seul coefficient vaut alors :<br />

n<br />

∑<br />

i=<br />

1<br />

n<br />

n<br />

∑∑<br />

x . y'<br />

= m . x y .<br />

i<br />

i<br />

i=<br />

1 k=<br />

1<br />

i,<br />

k<br />

i<br />

k<br />

D’autre part, en utilisant la bilinéarité du produit <strong>scalaire</strong>, on obtient également :<br />

n<br />

(x|y) = ∑ x i.(<br />

ei<br />

y)<br />

= ∑ x i.<br />

∑ y k .( ei<br />

e k ) = ∑∑ x i.<br />

y k.<br />

m i,<br />

k ,<br />

i=<br />

1<br />

n<br />

n<br />

i=<br />

1 k=<br />

1<br />

n<br />

n<br />

i=<br />

1 k=<br />

1<br />

et les <strong>de</strong>ux expressions sont égales si on confond la matrice 1×1 avec son unique coefficient.<br />

• Si la base est orthonormale alors : ∀ 1 ≤ i,j ≤ n, mi,j = δi,j, la matrice M vaut In, et on a bien :<br />

(x|y) = t X.Y = ∑<br />

i=<br />

1<br />

n<br />

x .<br />

i i y .<br />

• Soit : x = x1.e1 + … + xn.en, la décomposition <strong>de</strong> x suivant la base orthonormale B.<br />

n<br />

∑<br />

j=<br />

1<br />

On peut alors calculer : (ei|x) = x j.(<br />

ei<br />

e j)<br />

= x i , d’où l’expression <strong>de</strong> x.<br />

n<br />

2<br />

2<br />

2<br />

• Enfin : x = ( x x)<br />

= ∑ x i = ∑(<br />

ei<br />

x)<br />

, vu les expressions trouvées précé<strong>de</strong>mment.<br />

i=<br />

1<br />

n<br />

i=<br />

1<br />

Théorème 4.6 : expression matricielle du produit <strong>scalaire</strong>, cas complexe<br />

Soit (E,(.|.)) un espace vectoriel hermitien <strong>de</strong> dimension n.<br />

Soit : B = (ei), une base <strong>de</strong> E.<br />

Soient x et y <strong>de</strong>s vecteurs <strong>de</strong> E, et X et Y les matrices colonnes <strong>de</strong> leurs coordonnées dans B.<br />

t<br />

Alors : (x|y) = X.<br />

M.<br />

Y .<br />

Si B est orthonormale, on a <strong>de</strong> plus :<br />

t<br />

n<br />

• (x|y) = = X . Y = ∑ x i.<br />

yi<br />

(forme canonique d’un produit <strong>scalaire</strong> complexe dans une base<br />

i=<br />

1<br />

orthonormale),<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 12 -<br />

n


n<br />

• x = ∑<br />

i=<br />

1<br />

( e x).<br />

e ,<br />

n<br />

i<br />

2<br />

2<br />

2<br />

• x = ∑ x i = ∑ ( ei<br />

x)<br />

.<br />

i=<br />

1<br />

i<br />

n<br />

i=<br />

1<br />

Démonstration :<br />

On adapte sans difficulté la démonstration précé<strong>de</strong>nte au cas complexe, en tenant compte du fait que le<br />

produit <strong>scalaire</strong> est cette fois semi-linéaire par rapport à la première variable, d’où les barres <strong>de</strong><br />

conjugaison et l’apparition du module dans l’expression <strong>de</strong> la norme d’un vecteur <strong>de</strong> E.<br />

5. Projections orthogonales.<br />

Théorème 5.1 : supplémentaire orthogonal d’un sous-espace vectoriel <strong>de</strong> dimension finie<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non.<br />

Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />

Alors F ⊥ est un supplémentaire <strong>de</strong> F dans E, appelé supplémentaire orthogonal <strong>de</strong> F dans E.<br />

En particulier, si E est <strong>de</strong> dimension finie, on a donc : dim(F) + dim(F ⊥ ) = dim(E).<br />

Démonstration :<br />

On va montrer que tout vecteur <strong>de</strong> E peut se décomposer <strong>de</strong> façon unique comme somme d’un vecteur<br />

<strong>de</strong> F et <strong>de</strong> F ⊥ .<br />

Pour cela, soit (e1, …, ep) une base orthonormale BF <strong>de</strong> F et soit x un vecteur <strong>de</strong> E.<br />

Si x peut s’écrire : x = xF + x⊥, avec : xF ∈ F, et : x⊥ ∈ F ⊥ , alors :<br />

∃ (x1, …, xp) ∈ K p , xF = x1.e1 + … + xp.ep, et x⊥ est orthogonal à tout vecteur <strong>de</strong> F.<br />

En particulier : ∀ 1 ≤ i ≤ p, (ei|x) = (ei|xF) + (ei|x⊥) = xi, puisque la base BF est orthonormale.<br />

p<br />

Donc xF ne peut valoir que : xF = ∑ ( ei<br />

x).<br />

ei<br />

, et : x⊥ = x – xF.<br />

i=<br />

1<br />

Réciproquement, cette unique décomposition possible convient car on a bien :<br />

• xF ∈ F, puisque BF engendre F,<br />

• x = xF + x⊥, par construction,<br />

• ∀ 1 ≤ k ≤ p, (ek|x⊥) = (ek|x) – (ek|xF) = (ek|x) – (ek|x) = 0, à nouveau parce que la base BF <strong>de</strong> F est<br />

orthonormale et en utilisant la linéarité du produit <strong>scalaire</strong> par rapport à sa première variable.<br />

Le troisième point permet <strong>de</strong> conclure plus généralement que : ∀ y ∈ F, (y|x⊥) = 0.<br />

Les <strong>de</strong>ux sous-espaces vectoriels sont donc bien supplémentaires dans E et en particulier, si E est <strong>de</strong><br />

dimension finie, on a : dim(F) + dim(F ⊥ ) = dim(E).<br />

Théorème 5.2 : cas d’un hyperplan d’un espace euclidien<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />

Soit H un hyperplan <strong>de</strong> E, et : B = (e1, …, en), une base orthonormale <strong>de</strong> E.<br />

Alors si H est le noyau <strong>de</strong> la forme linéaire ϕ, l’expression <strong>de</strong> ϕ dans la base B fournit une base <strong>de</strong> H ⊥ .<br />

Plus précisément, si un vecteur : x = x1.e1 + … + xn.en, a pour image [a1.x1 + … + an.xn] par ϕ, alors :<br />

a1.x1 + … + an.xn = 0, est une équation <strong>de</strong> H et le vecteur (a1.e1 + … + an.en) est une base <strong>de</strong> H ⊥ .<br />

Démonstration :<br />

si B est une base orthonormale <strong>de</strong> E, il suffit <strong>de</strong> remarquer que, pour un vecteur x <strong>de</strong> E, s’écrivant :<br />

x = x1.e1 + … + xn.en,, l’image : ϕ(x) = a1.x1 + … + an.xn, <strong>de</strong> ce vecteur s’écrit également :<br />

ϕ(x) = (x|a), où a est la vecteur : a = a1.e1 + … + an.en, en utilisant le fait que l’expression du produit<br />

<strong>scalaire</strong> dans la base B est alors canonique.<br />

En particulier, on a : (x ∈ H) ⇔ (ϕ(x) = 0) ⇔ ((x|a) = 0) ⇔ x ∈ ((Vect(a)) ⊥ ).<br />

Donc : H = (Vect(a)) ⊥ , ou : Vect(a) = H ⊥ .<br />

Théorème 5.3 : expression <strong>de</strong> la projection orthogonale sur un sous-espace vectoriel <strong>de</strong> dimension<br />

finie<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non.<br />

Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 13 -


Soit (e1, …, ep) une base orthonormale <strong>de</strong> F et pF la projection orthogonale <strong>de</strong> E sur F.<br />

Alors pour tout vecteur x <strong>de</strong> E, on a : pF(x) = ∑<br />

i=<br />

p<br />

1<br />

( e x)<br />

. e .<br />

Démonstration :<br />

On a montré dans la démonstration du théorème 5.1 qu’un vecteur x <strong>de</strong> E pouvait se décomposer<br />

suivant la somme directe : E = F ⊕ F ⊥ , en : x = ∑<br />

i=<br />

orthonormale.<br />

Dans ce cas, la projection orthogonale pF(x) <strong>de</strong> x sur F s’écrit : pF(x) = ∑<br />

i=<br />

p<br />

1<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 14 -<br />

i<br />

i<br />

i<br />

( e x).<br />

e + x⊥, puisque la base choisie dans F est<br />

i<br />

p<br />

1<br />

( e x).<br />

e .<br />

Définition 5.1 et théorème 5.4 : distance d’un vecteur à un sous-espace vectoriel <strong>de</strong> dimension finie<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non et . la norme<br />

associée.<br />

Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />

Pour un vecteur x <strong>de</strong> E, on appelle distance <strong>de</strong> x à F, notée d(x,F), la quantité : d(<br />

x,<br />

F)<br />

inf x − z<br />

i<br />

i<br />

=<br />

z∈F<br />

Cette valeur est atteinte en un unique vecteur <strong>de</strong> F qui est pF(x), la projection orthogonale <strong>de</strong> x sur F.<br />

On a donc : d(x,F) = − p ( x)<br />

.<br />

x F<br />

Démonstration :<br />

Tout d’abord, pour un vecteur x <strong>de</strong> E, l’ensemble { x − z , z ∈ F} est non vi<strong>de</strong> (il suffit <strong>de</strong> prendre : z = 0)<br />

et il est constitué <strong>de</strong> réels positifs, donc il est minoré.<br />

Par conséquent, il admet une borne inférieure.<br />

De plus, en notant xF la projection orthogonale pF(x) <strong>de</strong> x sur F, on a :<br />

∀ z ∈ F,<br />

2<br />

x − z = x − x + x − z .<br />

F<br />

F<br />

2<br />

Or : (x – xF) ∈ F ⊥ , et : (xF – z) ∈ F, donc ces <strong>de</strong>ux vecteurs sont orthogonaux et le théorème <strong>de</strong><br />

Pythagore peut s’appliquer pour donner :<br />

∀ z ∈ F,<br />

2<br />

x − z = x − x + x − z .<br />

F<br />

2<br />

F<br />

2<br />

Il est alors clair que : ∀ z ∈ F, x − z ≥ x − x F , et : ∀ z ∈ F, (z ≠ xF) ⇒ ( x − z > x − x F ).<br />

Donc la valeur x − x F est plus petit élément <strong>de</strong> l’ensemble { x − z , z ∈ F}, donc aussi sa borne<br />

inférieure, et elle n’est atteinte qu’en : z = xF = pF(x).<br />

Théorème 5.5 : inégalité <strong>de</strong> Bessel<br />

Soit (E,(.|.)) un espace préhilbertien réel ou complexe <strong>de</strong> dimension finie ou non et . la norme<br />

associée.<br />

Soit F un sous-espace vectoriel <strong>de</strong> E <strong>de</strong> dimension finie p.<br />

Soit (e1, …, ep) une base orthonormale <strong>de</strong> F.<br />

Pour tout vecteur x <strong>de</strong> E, on a :<br />

Démonstration :<br />

p<br />

∑<br />

i=<br />

1<br />

p<br />

i<br />

2<br />

( e x)<br />

≤<br />

x<br />

2<br />

.<br />

Soit x un vecteur <strong>de</strong> E, et : x = ∑ ( ei<br />

x).<br />

ei<br />

+ x⊥, sa décomposition suivant la somme : E = F ⊕ F<br />

i=<br />

1<br />

⊥ ,<br />

puisque la base proposée dans E est orthonormale.<br />

Alors les <strong>de</strong>ux vecteurs <strong>de</strong> cette décomposition étant orthogonaux, le théorème <strong>de</strong> Pythagore s’applique<br />

à nouveau et :<br />

2<br />

p<br />

∑<br />

x = ( e x).<br />

e + x ≥ ( e x).<br />

e = ( e x)<br />

,<br />

i=<br />

1<br />

i<br />

i<br />

2<br />

⊥<br />

2<br />

p<br />

∑<br />

i=<br />

1<br />

i<br />

i<br />

2<br />

p<br />

∑<br />

i=<br />

1<br />

puisque la base <strong>de</strong> F est orthonormale et l’expression <strong>de</strong> la norme au carré est alors canonique.<br />

i<br />

2<br />

.


6. Endomorphismes adjoints et autoadjoints dans un espace vectoriel euclidien.<br />

Théorème 6.1 et définition 6.1 : adjoint d’un endomorphisme dans un espace vectoriel euclidien<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

Soit : u ∈ L(E).<br />

Il existe un unique endomorphisme <strong>de</strong> E, noté u* et appelé adjoint <strong>de</strong> u tel que :<br />

∀ (x,y) ∈ E 2 , (x|u(y)) = (u*(x)|y).<br />

Si B est une base orthonormale <strong>de</strong> E, alors : mat(u*,B) = t mat(u,B).<br />

Démonstration :<br />

• Montrons tout d’abord qu’un endomorphisme u <strong>de</strong> E ne peut admettre qu’un seul adjoint.<br />

Pour cela, si u’ et u’’ répon<strong>de</strong>nt au problème, alors :<br />

∀ x ∈ E, ∀ y ∈ E, (x|u(y)) = (u’(x)|y) = (u’’(x)|y), et : (u’(x) – u’’(x)|y) = 0.<br />

Puisque, pour x fixé, cette <strong>de</strong>rnière égalité est valable pour tout : y ∈ E, on en déduit : u’(x) – u’’(x) = 0.<br />

Mais cette égalité étant elle-même valable pour tout : x ∈ E, on conclut à : u’ = u’’.<br />

• Montrons maintenant que tout endomorphisme <strong>de</strong> E admet bien un adjoint.<br />

Pour cela, soit B une base orthonormale <strong>de</strong> E, A la matrice <strong>de</strong> u dans B, et u* l’endomorphisme <strong>de</strong> E,<br />

tel que : mat(u*,B) = A.<br />

Alors : ∀ (x,y) ∈ E 2 , (x|u(y)) = t X.(A.Y) = t X. t ( t (A)).Y = t ( t A.X).Y = (u*(x)|y),<br />

puisque dans B, l’expression du produit <strong>scalaire</strong> prend une forme canonique.<br />

L’endomorphisme u* ainsi défini, répond bien au problème.<br />

Théorème 6.2 : involution : u aaaa u*<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

L’application <strong>de</strong> L(E) dans lui-même qui à tout endomorphisme u <strong>de</strong> E fait correspondre u* est un<br />

automorphisme involutif <strong>de</strong> L(E).<br />

De plus : ∀ (u,v) ∈ (L(E)) 2 , (uov)* = v*ou*.<br />

Démonstration :<br />

Il suffit ici <strong>de</strong> raisonner matriciellement, et pour cela, <strong>de</strong> fixer une base orthonormale B <strong>de</strong> E.<br />

Soit : u ∈ L(E), et : A = mat(u,B).<br />

Alors u* est défini par : mat(u*,B) = t A,<br />

et (u*)* est lui-même donné par : mat((u*)*,B) = t mat(u*,B) = t ( t A) = A, soit : (u*)* = u.<br />

D’autre part : ∀ (u,v) ∈ L(E) 2 , notons : A = mat(u,B), et : B = mat(v,B).<br />

Alors : mat((uov)*,B) = t (mat(uov,B)) = t (A.B) = t B. t A. = mat(v*,B).mat(u*,B) = mat(v*ou*,B),<br />

d’où : (uov)* = v*ou*.<br />

Définition 6.2 : endomorphisme autoadjoint<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

On dit qu’un endomorphisme u <strong>de</strong> E est autoadjoint si et seulement si : u = u*.<br />

Théorème 6.3 : caractérisation <strong>de</strong>s endomorphismes autoadjoints<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

Soit : u ∈ L(E).<br />

L’endomorphisme u est autoadjoint si et seulement si sa matrice représentative dans toute base<br />

orthonormale <strong>de</strong> E est symétrique.<br />

Démonstration :<br />

Soit B une base orthonormale <strong>de</strong> E.<br />

Alors : ∀ u ∈ L(E), (u = u*) ⇔ (mat(u,B) = mat(u*,B) = t mat(u,B)) ⇔ (mat(u,B) symétrique).<br />

Théorème 6.4 : espace vectoriel <strong>de</strong>s endomorphismes autoadjoints<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n.<br />

L’ensemble <strong>de</strong>s endomorphismes autoadjoints <strong>de</strong> E forme un sous-espace vectoriel <strong>de</strong> L(E) <strong>de</strong><br />

n .( n + 1)<br />

dimension .<br />

2<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 15 -


Démonstration :<br />

Fixons à nouveau une base orthonormale B <strong>de</strong> E et appelons φ l’isomorphisme <strong>de</strong> L(E) dans Mn(),<br />

qui à un endomorphisme <strong>de</strong> E fait correspondre sa matrice représentative dans B.<br />

L’ensemble S(E) <strong>de</strong>s endomorphismes symétriques <strong>de</strong> E est bien un sous-espace vectoriel <strong>de</strong> E car :<br />

• S(E) ⊂ L(E),<br />

• S(E) ≠ ∅, puisque l’endomorphisme nul (<strong>de</strong> matrice nulle dans B, donc symétrique) est autoadjoint,<br />

• ∀ (u,v) ∈ S(E), ∀ (λ,μ) ∈ 2 , mat(λ.u+μ.v,B) = λ.mat(u,B) + μ.mat(v,B), est symétrique, et :<br />

(λ.u+μ.v) ∈ S(E).<br />

De plus puisque : φ(S(E)) = Sn(), ensemble <strong>de</strong>s matrices symétriques réelles <strong>de</strong> Mn(), les <strong>de</strong>ux<br />

sous-espaces vectoriels S(E) et Sn() ont même dimension car φ est un isomorphisme, et la dimension<br />

n .( n + 1)<br />

<strong>de</strong> S(E) est bien .<br />

2<br />

Théorème 6.5 : caractérisation par leur adjoint <strong>de</strong>s projecteurs orthogonaux d’un espace vectoriel<br />

euclidien<br />

Soit (E,(.|.)) un espace vectoriel euclidien.<br />

Soit : p ∈ L(E).<br />

L’endomorphisme p est un projecteur orthogonal <strong>de</strong> E si et seulement si : (p 2 = p, et : p* = p).<br />

Soit B une base orthonormale <strong>de</strong> E et : M = mat(p,B).<br />

Alors p est un projecteur orthogonal <strong>de</strong> E si et seulement si : (M 2 = M, et : t M = M).<br />

Démonstration :<br />

Raisonnons par double implication.<br />

• [⇒] Supposons que p est un projecteur orthogonal <strong>de</strong> E et notons B une base <strong>de</strong> E, formée <strong>de</strong> la<br />

réunion d’une base orthonormale <strong>de</strong> Im(p) et d’une base orthonormale <strong>de</strong> ker(p).<br />

Cela fournit une base orthonormale <strong>de</strong> E, et dans cette base, la matrice <strong>de</strong> p est symétrique puisqu’elle<br />

⎛I<br />

k 0⎞<br />

vaut : mat(p,B) = ⎜ ⎟ , où : k = dim(Im(p)).<br />

⎝ 0 0⎠<br />

Donc p est autoadjoint, et : p = p*.<br />

Comme c’est un projecteur, on a aussi : p 2 = p.<br />

• [⇐] Supposons maintenant que : p 2 = p, et : p = p*.<br />

Il est clair alors que p est un projecteur <strong>de</strong> E, et <strong>de</strong> plus :<br />

∀ (x,y) ∈ ker(p)×Im(p), (x|y) = (x|p(y)) = (p*(x)|y) = (p(x)|y) = (0|y) = 0.<br />

Comme ker(p) et Im(p) sont <strong>de</strong>s supplémentaires orthogonaux dans E, p est bien un projecteur<br />

orthogonal <strong>de</strong> E.<br />

Le <strong>de</strong>uxième point est simplement la traduction matricielle <strong>de</strong> la caractérisation précé<strong>de</strong>nte.<br />

7. Endomorphismes orthogonaux et matrices orthogonales.<br />

Définition 7.1 et théorème 7.1 : endomorphisme orthogonal dans un espace vectoriel euclidien<br />

Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />

Soit : u ∈ L(E).<br />

On dit que u est un endomorphisme orthogonal <strong>de</strong> E si et seulement si u conserve la norme ou le produit<br />

<strong>scalaire</strong> <strong>de</strong> E, c'est-à-dire : ∀ (x,y) ∈ E 2 , (u(x)|u(y)) = (x|y), ou : ∀ x ∈ E, u ( x)<br />

= x .<br />

Ces <strong>de</strong>ux définitions sont bien équivalentes.<br />

Démonstration :<br />

Si u conserve le produit <strong>scalaire</strong>, alors :<br />

∀ x ∈ E,<br />

2<br />

u ( x)<br />

= ( u(<br />

x)<br />

u(<br />

x)<br />

) = ( x x)<br />

= x , et u conserve bien la norme.<br />

2<br />

Si par ailleurs, u conserve la norme, alors l’expression du produit <strong>scalaire</strong> à l’ai<strong>de</strong> <strong>de</strong> normes (par le biais<br />

<strong>de</strong>s i<strong>de</strong>ntités dites « <strong>de</strong> polarisation » (théorème 2.7)) et la linéarité <strong>de</strong> u montrent que u conserve le<br />

produit <strong>scalaire</strong>.<br />

Théorème 7.2 : bijectivité <strong>de</strong>s endomorphismes orthogonaux en dimension finie<br />

Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 16 -


Soit : u ∈ L(E), un endomorphisme orthogonal <strong>de</strong> E.<br />

Alors u est bijectif, et donc tout endomorphisme orthogonal d’un espace vectoriel euclidien est un<br />

automorphisme.<br />

De plus, u ne peut admettre comme valeur propre que ±1.<br />

Démonstration :<br />

Puisque l’on travaille dans un espace euclidien, il est <strong>de</strong> dimension finie et il suffit <strong>de</strong> démontrer que<br />

l’endomorphisme u est injectif.<br />

Or : ∀ x ∈ E, (x ∈ ker(u)) ⇔ (u(x) = 0) ⇔ ( x = 0) ⇔ (x = 0).<br />

Supposons maintenant que λ est valeur propre (donc réelle) <strong>de</strong> u, et soit x un vecteur propre associé.<br />

Alors : u(x) = λ.x, et : u( x)<br />

= λ.<br />

x = λ.<br />

x , mais aussi : u ( x)<br />

= x , et comme x est non nul : |λ| = 1.<br />

Théorème 7.3 : caractérisation <strong>de</strong>s endomorphismes orthogonaux<br />

Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />

Soit : u ∈ L(E).<br />

u est un endomorphisme orthogonal <strong>de</strong> E si et seulement si : uou* = u*ou = idE.<br />

Démonstration :<br />

Notons u* l’adjoint <strong>de</strong> u et travaillons par double implication.<br />

• [⇒] Si u est orthogonal, alors :<br />

∀ (x,y) ∈ E 2 , (x|y) = (u(x)|u(y)) = (u*ou(x)|y), donc : (x – u*ou(x)|y) = 0.<br />

Cette égalité étant valable pour tout : y ∈ E, on en déduit : ∀ x ∈ E, x – u*ou(x) = 0, soit : u*ou(x) = x.<br />

Donc : u*ou = idE, et par conséquent : uou* = idE, puisque u est alors bijectif, d’inverse u*.<br />

• [⇒] Si : u*ou = idE, alors : ∀ (x,y) ∈ E 2 , (u(x)|u(y)) = (u*ou(x)|y) = (x|y), et u est orthogonal.<br />

Définition 7.2 : matrice orthogonale<br />

Soit : n ≥ 1.<br />

On dit que : A ∈ Mn(), est une matrice orthogonale si et seulement si : t A.A = In, ou : A. t A = In.<br />

Théorème 7.4 : caractérisation <strong>de</strong>s matrices orthogonales par leurs vecteurs lignes ou colonnes<br />

Soit : n ≥ 1.<br />

Une matrice : A ∈ Mn(), est orthogonale si et seulement si ses colonnes, considérées comme <strong>de</strong>s<br />

vecteurs <strong>de</strong> n (ou ses lignes) forment une base orthonormale <strong>de</strong> n , pour le produit <strong>scalaire</strong> canonique<br />

<strong>de</strong> n .<br />

De plus, si : A ∈ Mn(), est orthogonale, alors : <strong>de</strong>t(A) = ±1.<br />

Démonstration :<br />

Soit : A ∈ Mn().<br />

On peut tout d’abord remarquer que :<br />

( t A.A = In) ⇔ (A -1 = t A) ⇔ (A. t A = In) ⇔ (A orthogonale).<br />

Puis, si on note B la matrice : B = t A.A, ses coefficients sont :<br />

∀ 1 ≤ i,j ≤ n, bi,j = (Ci|Cj), où le produit <strong>scalaire</strong> est ici le produit <strong>scalaire</strong> canonique <strong>de</strong> n , et où on a<br />

noté C1, …, Cn les colonnes <strong>de</strong> A, considérées comme <strong>de</strong>s vecteurs <strong>de</strong> n .<br />

Donc A est orthogonale si et seulement si : B = In, donc si et seulement si la famille (formée <strong>de</strong> n<br />

vecteurs) (c1, …, cn) est orthonormale dans n , donc en forme une base orthonormale.<br />

De même, en notant L1, …, Ln les lignes <strong>de</strong> A, et en utilisant : B’ = A. t A, on démontre l’autre équivalence.<br />

Enfin, si A est orthogonale, alors : <strong>de</strong>t(In) = 1 = <strong>de</strong>t( t A.A) = <strong>de</strong>t( t A).<strong>de</strong>t(A) = (<strong>de</strong>t(A)) 2 .<br />

Théorème 7.5 : caractérisation matricielle <strong>de</strong>s endomorphismes orthogonaux<br />

Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />

Soit : u ∈ L(E).<br />

u est un endomorphisme orthogonal si et seulement si sa matrice dans une base orthonormale <strong>de</strong> E est<br />

une matrice orthogonale.<br />

Démonstration :<br />

Si on note A la matrice <strong>de</strong> u dans une base orthonormale <strong>de</strong> E, alors l’adjoint u* <strong>de</strong> u a pour matrice<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 17 -<br />

t A<br />

dans cette même base.<br />

Or dans ce cas : (u orthogonal) ⇔ (u*ou = idE) ⇔ ( t A.A = In) ⇔ (A orthogonale),


en utilisant la remarque faite dans la démonstration du théorème précé<strong>de</strong>nt.<br />

Théorème 7.6 et définition 7.3 : les groupes (O(E),o) et (O(n),××××)<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension n et . la norme associée.<br />

Alors l’ensemble <strong>de</strong>s endomorphismes orthogonaux <strong>de</strong> E, noté O(E), forme un groupe pour la loi o,<br />

appelé groupe orthogonal <strong>de</strong> E et sous-groupe <strong>de</strong> (Gl(E),o).<br />

De même, l’ensemble O(n) <strong>de</strong>s matrices orthogonales <strong>de</strong> Mn(), forme un groupe pour la loi ×, appelé<br />

groupe orthogonal d’ordre n, et sous-groupe <strong>de</strong> (Gl(n),×).<br />

De plus, si on fixe une base B <strong>de</strong> E, orthonormale, l’application <strong>de</strong> L(E) dans Mn(), qui à un<br />

endomorphisme u associe sa matrice dans la base B, induit un isomorphisme <strong>de</strong> groupes <strong>de</strong> (O(E),o)<br />

dans (O(n),×).<br />

Démonstration :<br />

• O(E) :<br />

Les endomorphismes orthogonaux <strong>de</strong> E sont <strong>de</strong>s automorphismes <strong>de</strong> E, donc on a bien : O(E) ⊂ Gl(E).<br />

De plus il est clair que idE conserve la norme donc c’est un endomorphisme orthogonal, et : O(E) ≠ ∅.<br />

Puis, si u et v conservent la norme dans E, alors : ∀ x ∈ E, uov ( x)<br />

= u(<br />

v(<br />

x))<br />

= v(<br />

x)<br />

= x .<br />

Donc : ∀ (u,v) ∈ O(E) 2 , uov ∈ O(E).<br />

−1<br />

Enfin, pour tout u dans O(E), u est bijectif et : ∀ x ∈ E, u ( x)<br />

=<br />

−1<br />

u(<br />

u ( x))<br />

= x , soit : u -1 ∈ O(E).<br />

• O(n) :<br />

De la même façon, toute matrice orthogonale étant inversible, on a : O(n) ⊂ Gl(n).<br />

De plus : t In.In = In, donc : In ∈ O(n), et : O(n) ≠ ∅.<br />

Puis : ∀ (A,B) ∈ O(n) 2 , t (A.B).(A.B) = t B. t A.A.B = t B.In.B = In, et : (A.B) ∈ O(n).<br />

Enfin : ∀ A ∈ O(n), A -1 = t A, et : t (A -1 ).A -1 = t ( t (A)). t A = A. t A = In, et : A -1 ∈ O(n).<br />

• L’application proposée est bien une application <strong>de</strong> O(E) dans O(n), d’après le théorème 7.5.<br />

C’est un morphisme <strong>de</strong> groupes multiplicatifs, car : ∀ (u,v) ∈ O(E) 2 , mat(uov,B) = mat(u,B).mat(v,B).<br />

Enfin, c’est bien une application injective puisque l’application <strong>de</strong> L(E) dans Mn() l’est, et elle est<br />

surjective puisque pour une matrice orthogonale donnée A, l’endomorphisme u <strong>de</strong> E tel que :<br />

A = mat(u,B), est orthogonal, toujours d’après le théorème 7.5.<br />

Théorème 7.7 : matrice <strong>de</strong> passage entre bases orthonormales<br />

Soit (E,(.|.)) un espace vectoriel euclidien et . la norme associée.<br />

Soit B une base orthonormale <strong>de</strong> E et B’ une autre base <strong>de</strong> E.<br />

Si on note P la matrice <strong>de</strong> passage <strong>de</strong> B à B’, alors B’ est orthonormale si et seulement si P est<br />

orthogonale.<br />

Démonstration :<br />

Soit donc B une bas orthonormale <strong>de</strong> E et B’ une autre base <strong>de</strong> E en notant P la matrice <strong>de</strong> passage<br />

<strong>de</strong> l’une à l’autre.<br />

Les coefficients <strong>de</strong> P sont (en colonne) les coordonnées <strong>de</strong>s vecteurs <strong>de</strong> B’ exprimés dans la base B.<br />

Or dans ce cas : ∀ (j,j’) ∈ {1, …, n} 2 ,<br />

t Cj.Cj’ = (Cj|Cj’), pour le produit <strong>scalaire</strong> canonique (<strong>de</strong>s colonnes Cj et Cj’ <strong>de</strong> P) dans n ,<br />

t n<br />

Cj.Cj’ = ∑ p k, j.<br />

p k,<br />

j'<br />

= (e’j|e’j’), où les e<br />

k=<br />

1<br />

’ k sont les vecteurs <strong>de</strong> B’, et où le produit <strong>scalaire</strong> est cette fois<br />

celui dans E : en effet, la base B étant orthonormale, la forme que prend le produit <strong>scalaire</strong> est encore<br />

canonique.<br />

Il est alors clair que : ( t P.P = In) ⇔ (∀ (j,j’) ∈ {1, …, n} 2 , t Cj.Cj’ = δi,j = (e’j,e’j’)) ⇔ (B’ orthonormale).<br />

8. Réduction <strong>de</strong>s endomorphismes autoadjoints d’un espace vectoriel euclidien et <strong>de</strong>s matrices<br />

symétriques réelles.<br />

Théorème 8.1 : valeurs propres d’une matrice symétrique réelle, d’un endomorphisme autoadjoint<br />

Soit : n ≥ 1.<br />

Soit : A ∈ Mn(), une matrice symétrique réelle.<br />

Alors A, considérée comme élément <strong>de</strong> Mn(), a toutes ses valeurs propres réelles, et donc toutes les<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 18 -


acines <strong>de</strong> son polynôme caractéristique sont réelles.<br />

De même, soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />

Toutes les racines du polynôme caractéristique <strong>de</strong> u sont réelles.<br />

Démonstration :<br />

Soit λ une racine <strong>de</strong> PA éventuellement complexe, et X un vecteur propre (dans n ) associé à λ.<br />

Alors : A.X = λ.X.<br />

Considérons alors le produit <strong>scalaire</strong> hermitien canonique <strong>de</strong> n . On peut écrire :<br />

t<br />

t<br />

t<br />

2<br />

X. A.<br />

X = λ.<br />

X.<br />

X = λ.<br />

X , mais aussi, puisque A est symétrique et réelle et vérifie : A = A ,<br />

t<br />

t<br />

t<br />

X. A.<br />

X=<br />

X.<br />

A.<br />

X=<br />

( A.<br />

X)<br />

. X=<br />

( λ.<br />

X)<br />

. X = λ.<br />

X.<br />

X = λ.<br />

X .<br />

t<br />

t<br />

Et comme X est un vecteur propre, il est non nul, <strong>de</strong> norme également non nulle et : λ = λ .<br />

Donc toute racine <strong>de</strong> PA est réelle.<br />

De même, si u est un endomorphisme autoadjoint <strong>de</strong> E, sa matrice dans n’importe quelle base<br />

orthonormale <strong>de</strong> E est symétrique réelle, donc les racines <strong>de</strong> Pu qui sont celles <strong>de</strong> PA sont toutes réelles.<br />

Théorème 8.2 : orthogonalité <strong>de</strong>s espaces propres d’un endomorphisme autoadjoint<br />

Soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />

Si λ et μ sont <strong>de</strong>s valeurs propres distinctes <strong>de</strong> u, les espaces propres associés Eλ(u) et Eμ(u) sont<br />

orthogonaux.<br />

Démonstration :<br />

Toutes les valeurs propres <strong>de</strong> u sont réelles.<br />

Soient λ et μ <strong>de</strong>ux valeurs propres distinctes, et x et y <strong>de</strong>s éléments <strong>de</strong> Eλ(u) et Eμ(u).<br />

Alors : (x|u(y)= (x|μ.y) = μ.(x|y), mais aussi : (x|u(y)) = (u(x)|y) = (λ.x|y) = λ.(x|y).<br />

Or λ et μ sont distincts, donc : (x|y) = 0, et les sous-espaces propres associés sont bien orthogonaux.<br />

Théorème 8.3 : diagonalisabilité <strong>de</strong>s endomorphismes autoadjoints<br />

Soit (E,(.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), autoadjoint.<br />

Il existe une base orthonormale <strong>de</strong> E dans laquelle l’endomorphisme u est diagonalisable.<br />

E est la somme directe orthogonale <strong>de</strong>s sous-espaces propres <strong>de</strong> u.<br />

Démonstration :<br />

On effectue cette démonstration par récurrence sur la dimension n <strong>de</strong> l’espace.<br />

Si u est un endomorphisme autoadjoint d’un espace euclidien <strong>de</strong> dimension 1, il est évi<strong>de</strong>mment<br />

diagonalisable puisque sa matrice dans toute base <strong>de</strong> E est <strong>de</strong> taille 1×1, donc diagonale.<br />

Supposons le résultat acquis pour tout endomorphisme autoadjoint d’un espace vectoriel <strong>de</strong> dimension :<br />

n ≥ 1, donnée.<br />

Soit alors u un endomorphisme autoadjoint d’un espace euclidien E <strong>de</strong> dimension (n+1).<br />

Puisque Pu est scindé dans , u admet au moins une valeur propre λ et un vecteur propre associé e1.<br />

Notons alors E’ le supplémentaire orthogonal <strong>de</strong> Vect(e1) dans E.<br />

• E’ est stable par u :<br />

En effet : ∀ x ∈ E’, (e1|u(x)) = (u(e1)|x) = λ.(e1|x) = 0, puisque x est orthogonal à e1.<br />

Donc : u(x) ∈ Vect(e1) ⊥ , et : u(x) ∈ E’.<br />

• Notons alors u’ l’endomorphisme induit par u dans E’ : l’espace E’ est <strong>de</strong> dimension n puisque<br />

supplémentaire dans E <strong>de</strong> Vect(e1).<br />

• L’endomorphisme u’ <strong>de</strong> E’ est autoadjoint puisque :<br />

∀ (x,y) ∈ E’ 2 , (x|u’(y)) = (x|u(y)) = (u(x)|y) = (u’(x)|y).<br />

Donc il existe une base orthonormale (e2, …, en+1) <strong>de</strong> E’ formée <strong>de</strong> vecteurs propres <strong>de</strong> u’.<br />

Mais ces vecteurs sont aussi vecteurs propres <strong>de</strong> u et en réunissant cette famille à e1, on obtient une<br />

base orthonormale (e1, …, en+1) <strong>de</strong> E, formée <strong>de</strong> vecteurs propres <strong>de</strong> E, ce qui termine la récurrence.<br />

Théorème 8.4 : diagonalisabilité <strong>de</strong>s matrices symétriques réelles<br />

Soit : n ≥ 1.<br />

Soit : A ∈ Mn(), une matrice symétrique réelle.<br />

Alors A est diagonalisable et il est possible <strong>de</strong> la diagonaliser par l’intermédiaire d’une matrice<br />

orthogonale.<br />

Démonstration :<br />

Si u désigne l’endomorphisme <strong>de</strong> <br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 19 -<br />

n canoniquement associé à A, il est autoadjoint pour le produit<br />

2<br />

t


<strong>scalaire</strong> canonique <strong>de</strong> n , puisque la base canonique est orthonormale pour ce produit <strong>scalaire</strong> et A est<br />

symétrique réelle.<br />

Donc u est diagonalisable et ses espaces propres sont orthogonaux.<br />

Si on considère alors une base <strong>de</strong> vecteurs propres <strong>de</strong> u formée <strong>de</strong> la réunion <strong>de</strong> bases orthonormales<br />

<strong>de</strong>s différents espaces propres <strong>de</strong> u, on obtient une base <strong>de</strong> vecteurs propres <strong>de</strong> u qui est une base<br />

orthonormale.<br />

La matrice <strong>de</strong> passage P <strong>de</strong> la base canonique à cette base <strong>de</strong> vecteurs propres est alors orthogonale<br />

et si on note enfin D la matrice P -1 .A.P, elle est diagonale, autrement dit on vient <strong>de</strong> diagonaliser A par<br />

l’intermédiaire d’une matrice orthogonale.<br />

Théorème 8.5 et définition 8.1 : endomorphisme autoadjoint associé à une forme bilinéaire<br />

symétrique<br />

Soit (E,(.|.)) un espace vectoriel euclidien, et ϕ une forme bilinéaire symétrique sur E.<br />

Il est possible <strong>de</strong> définir un endomorphisme u <strong>de</strong> E, autoadjoint, tel que : ∀ (x,y) ∈ E 2 , ϕ(x,y) = (x|u(y)).<br />

Démonstration :<br />

Soit B une base orthonormale <strong>de</strong> E, A la matrice <strong>de</strong> ϕ dans B et u l’endomorphisme <strong>de</strong> E dont la<br />

matrice dans la base B est A.<br />

Puisque ϕ est une forme symétrique, A est symétrique et donc puisque la base B est orthonormale, u<br />

est autoadjoint.<br />

Enfin, on constate bien que : ∀ (x,y) ∈ E 2 , ϕ(x,y) = t X.A.Y = t X.(A.Y) = (x|u(y)), où on a noté X et Y les<br />

matrices colonnes <strong>de</strong>s coordonnées dans la base B <strong>de</strong>s vecteurs x et y utilisés.<br />

Théorème 8.6 : réduction <strong>de</strong>s formes bilinéaires symétriques<br />

Soit (E,(.|.)) un espace vectoriel euclidien, et ϕ une forme bilinéaire symétrique sur E.<br />

Il existe une base orthonormale <strong>de</strong> E dans laquelle ϕ peut s’exprimer sous la forme :<br />

n<br />

n<br />

∀ (x,y) ∈ E², x = ∑ x i. ei<br />

, y = ∑ yi<br />

. ei<br />

, ϕ(<br />

x,<br />

y)<br />

= ∑ λ i.<br />

x i.<br />

yi<br />

,<br />

i=<br />

1<br />

i=<br />

1<br />

i=<br />

1<br />

où les λi sont les valeurs propres <strong>de</strong> l’endomorphisme u associé à ϕ défini dans le théorème 8.5.<br />

Démonstration :<br />

Puisque l’endomorphisme u est autoadjoint, il existe une base B <strong>de</strong> E, orthonormale telle que :<br />

D = mat(u,B) est diagonale.<br />

Dans ce cas, on constate que :<br />

∀ (x,y) ∈ E 2 , ϕ(x,y) = (x|u(y)) = t X.D.Y = ∑<br />

i=<br />

1<br />

n<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 20 -<br />

n<br />

λ . x . y ,<br />

i<br />

i<br />

i<br />

où X et Y sont les matrices colonnes <strong>de</strong>s coordonnées dans B <strong>de</strong>s vecteurs x et y utilisés, et la matrice<br />

D étant constituée <strong>de</strong>s valeurs propres λ1, …, λn <strong>de</strong> u.<br />

9. Réduction <strong>de</strong>s matrices <strong>de</strong> O(2) et O(3), endomorphismes orthogonaux en dimension 2 ou 3.<br />

Théorème 9.1 : éléments <strong>de</strong> O(2) : matrices orthogonales 2××××2<br />

Soit : A ∈ O(2), une matrice orthogonale <strong>de</strong> taille 2×2.<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎞<br />

• si : <strong>de</strong>t(A) = +1, il existe un réel θ tel que : A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

cos( θ)<br />

⎠<br />

⎛cos(<br />

θ)<br />

sin( θ)<br />

⎞<br />

• si : <strong>de</strong>t(A) = – 1, il existe un réel θ tel que : A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

− cos( θ)<br />

⎠<br />

Démonstration :<br />

⎛a<br />

c ⎞<br />

Notons : A = ⎜ ⎟ ∈ O(2).<br />

⎝b<br />

d⎠<br />

Alors dans tous les cas : a 2 + b 2 = c 2 + d 2 = 1, et : a.c + b.d = 0, puisque les vecteurs colonnes <strong>de</strong> A<br />

constituent une base orthonormale <strong>de</strong> 2 muni <strong>de</strong> son produit <strong>scalaire</strong> canonique.<br />

Donc il existe θ et θ’ réels tels que : a = cos(θ), b = sin(θ), c = sin(θ’), d = cos(θ’).<br />

De plus, on a aussi : cos(θ).sin(θ’) + sin(θ).cos(θ’) = 0 = sin(θ + θ’), soit : θ + θ’ = k.π, avec : k ∈ .


⎛cos(<br />

θ)<br />

On peut donc écrire : A = ⎜<br />

⎝ sin( θ)<br />

Enfin, si :<br />

k<br />

− ( −1)<br />

. sin( θ)<br />

⎞<br />

⎟<br />

k<br />

( −1)<br />

. cos( θ)<br />

⎟<br />

.<br />

⎠<br />

⎛cos(<br />

θ)<br />

⎝ sin( θ)<br />

− sin( θ)<br />

⎞<br />

, et si :<br />

cos( θ)<br />

⎠<br />

⎛cos(<br />

θ)<br />

⎜<br />

⎝ sin( θ)<br />

sin( θ)<br />

⎞<br />

.<br />

− cos( θ)<br />

⎠<br />

• <strong>de</strong>t(A) = +1, alors : (-1) k = +1, et : A = ⎜<br />

⎟<br />

• <strong>de</strong>t(A) = – 1, alors : (-1) k = – 1, et : A = ⎟<br />

Théorème 9.2 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 2<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension 2, orienté.<br />

Soit u un endomorphisme orthogonal <strong>de</strong> E et A la matrice <strong>de</strong> u dans une base : B = (i,j), orthonormale<br />

directe <strong>de</strong> E.<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎞<br />

• si : <strong>de</strong>t(u) = +1, alors il existe un réel θ tel que : A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

cos( θ)<br />

⎠<br />

Si u n’est pas l’i<strong>de</strong>ntité <strong>de</strong> E, u est la rotation <strong>de</strong> E d’angle θ, θ étant donné par : 2.cos(θ) = tr(u).<br />

⎛cos(<br />

θ)<br />

sin( θ)<br />

⎞<br />

• si : <strong>de</strong>t(u) = – 1, alors il existe un réel θ tel que : A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

− cos( θ)<br />

⎠<br />

⎛ θ ⎞ ⎛ θ ⎞<br />

u est alors la symétrie orthogonale par rapport à la droite D d’équation : x . sin⎜<br />

⎟ − y.<br />

cos⎜<br />

⎟ = 0 , et<br />

⎝ 2 ⎠ ⎝ 2 ⎠<br />

θ<br />

l’angle <strong>de</strong> D avec la droite dirigée par i est égal à .<br />

2<br />

Démonstration :<br />

Si u est un endomorphisme orthogonal <strong>de</strong> E alors sa matrice représentative A dans une base<br />

orthonormale <strong>de</strong> E est alors orthogonale et on se trouve dans l’un <strong>de</strong>s <strong>de</strong>ux cas précé<strong>de</strong>nts.<br />

De plus, si :<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎞<br />

• <strong>de</strong>t(u) = +1, alors : <strong>de</strong>t(A) = +1, et : ∃ θ ∈ , A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

cos( θ)<br />

⎠<br />

Distinguons alors <strong>de</strong>ux cas.<br />

Si : θ = 0 (2.π), alors u est l’i<strong>de</strong>ntité <strong>de</strong> E sinon u est une rotation <strong>de</strong> E d’angle θ, et on obtient par :<br />

tr(A) = 2.cos(θ) = tr(u).<br />

Si par ailleurs :<br />

⎛cos(<br />

θ)<br />

sin( θ)<br />

⎞<br />

• <strong>de</strong>t(u) = – 1, alors : <strong>de</strong>t(A) = – 1, et : ∃ θ ∈ , A = ⎜<br />

⎟ .<br />

⎝ sin( θ)<br />

− cos( θ)<br />

⎠<br />

Puisqu’alors A est symétrique réelle, elle est diagonalisable et ses valeurs propres (réelles) λ1 et λ2<br />

vérifient, en utilisant trace et déterminant : λ1 + λ2 = 0, et : λ1.λ2 = – 1.<br />

Donc λ1 et λ2 valent 1 et – 1.<br />

⎛1<br />

0 ⎞<br />

La matrice <strong>de</strong> u dans une base <strong>de</strong> vecteurs propres est alors ⎜ ⎟ , et : u<br />

⎝0<br />

−1⎠<br />

2 = idE.<br />

u est donc bien une symétrie vectorielle.<br />

Comme enfin, les espaces propres <strong>de</strong> u sont orthogonaux, c’est une symétrie orthogonale.<br />

La droite par rapport à laquelle s’opère cette symétrie est l’ensemble <strong>de</strong>s vecteurs invariants <strong>de</strong> u<br />

⎧ ⎛ θ ⎞ ⎡ ⎛ θ ⎞ ⎛ θ ⎞ ⎤<br />

⎧(cos(<br />

θ)<br />

−1).<br />

x + sin( θ).<br />

y = 0<br />

⎪−<br />

2.<br />

sin⎜<br />

⎟.<br />

⎪<br />

⎢sin⎜<br />

⎟.<br />

x − cos⎜<br />

⎟.<br />

y⎥<br />

= 0<br />

⎝ 2 ⎠<br />

donnés par : A.X = 0, soit : ⎨<br />

, ou :<br />

⎣ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎦<br />

⎨<br />

.<br />

⎩sin(<br />

θ).<br />

x − (cos( θ)<br />

+ 1).<br />

y = 0 ⎪ ⎛ θ ⎞ ⎡ ⎛ θ ⎞ ⎛ θ ⎞ ⎤<br />

+ 2.<br />

cos⎜<br />

⎟.<br />

=<br />

⎪ ⎢sin⎜<br />

⎟.<br />

x − cos⎜<br />

⎟.<br />

y⎥<br />

0<br />

⎩ ⎝ 2 ⎠ ⎣ ⎝ 2 ⎠ ⎝ 2 ⎠ ⎦<br />

Comme enfin, soit le sinus, soit le cosinus mis en facteur est non nul, on en déduit bien que la droite<br />

invariante est la droite D dont l’équation dans la base B est bien celle annoncée.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 21 -


⎛ ⎛ θ ⎞ ⎛ θ ⎞⎞<br />

Il est alors immédiat que le vecteur ⎜cos<br />

⎜ ⎟,<br />

sin⎜<br />

⎟⎟<br />

est directeur <strong>de</strong> D et l’angle <strong>de</strong> ce vecteur avec i<br />

⎝ ⎝ 2 ⎠ ⎝ 2 ⎠⎠<br />

est bien θ/2.<br />

Théorème 9.3 : endomorphismes orthogonaux d’un espace vectoriel euclidien <strong>de</strong> dimension 3<br />

Soit (E,(.|.)) un espace vectoriel euclidien <strong>de</strong> dimension 3, orienté.<br />

Soit u un endomorphisme orthogonal <strong>de</strong> E.<br />

• si : <strong>de</strong>t(u) = +1, et si u n’est pas l’i<strong>de</strong>ntité <strong>de</strong> E, alors u admet une droite Δ <strong>de</strong> vecteurs invariants.<br />

Soit alors P le plan orthogonal à Δ.<br />

Si : tr(u) = – 1, alors u est la symétrie orthogonale par rapport à Δ.<br />

Si : tr(u) ≠ – 1, alors pour x un vecteur non nul <strong>de</strong> P (ou orthogonal à Δ), le vecteur : k = x∧u(x), est un<br />

vecteur non nul <strong>de</strong> Δ.<br />

Si dans ce cas, on oriente Δ avec k et P avec l’orientation induite par celle <strong>de</strong> Δ, u est alors la rotation<br />

d’axe Δ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) + 1 = tr(u).<br />

• si : <strong>de</strong>t(u) = – 1, et si u n’est pas –idE, alors l’ensemble <strong>de</strong>s vecteurs changés en leur opposé par u est<br />

une droite Δ <strong>de</strong> E.<br />

Notons alors P le plan orthogonal à Δ.<br />

Si : tr(u) = +1, u est la symétrie orthogonale par rapport à P.<br />

Si : tr(u) ≠ +1, alors pour x un vecteur non nul <strong>de</strong> P (ou orthogonal à Δ), le vecteur : k = x∧u(x), est<br />

encore un vecteur non nul <strong>de</strong> Δ.<br />

Si dans ce cas, on oriente Δ avec k,et P avec l’orientation induite par celle <strong>de</strong> Δ, alors u est la composée<br />

<strong>de</strong> la rotation d’axe Δ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) – 1 = tr(u), et <strong>de</strong> la symétrie<br />

orthogonale <strong>de</strong> E par rapport à P.<br />

Démonstration :<br />

Tout d’abord, le polynôme caractéristique Pu <strong>de</strong> u est <strong>de</strong> <strong>de</strong>gré 3 à coefficients réels, donc il admet une<br />

racine réelle au moins.<br />

Distinguons alors <strong>de</strong>ux cas :<br />

• Pu admet trois racines réelles et ça ne peut être que 1 ou – 1,<br />

• Pu admet une racine réelle et <strong>de</strong>ux racines complexes conjuguées : λ1 = ±1, λ , et λ .<br />

Le produit <strong>de</strong>s racines <strong>de</strong> Pu vaut par ailleurs <strong>de</strong>t(u).<br />

Deux cas alors se présentent :<br />

• <strong>de</strong>t(u) = +1.<br />

Les racines <strong>de</strong> Pu sont donc (+1, +1, +1) ou (+1, – 1, – 1), si les trois racines sont réelles, et (1, λ, λ ),<br />

avec : |λ| = 1, s’il y a <strong>de</strong>s racines non réelles.<br />

On constate donc que 1 est toujours valeur propre <strong>de</strong> u.<br />

Si u n’est pas l’i<strong>de</strong>ntité, 1 est alors racine simple <strong>de</strong> Pu et l’espace propre associé est <strong>de</strong> dimension 1<br />

donc c’est une droite Δ <strong>de</strong> E.<br />

Notons alors P le plan orthogonal à Δ.<br />

Alors P est stable par u, car : ∀ (x,y) ∈ P×Δ, (u(x)|y) = (u(x)|u(y)) = (x|y) = 0, donc : u(x) ∈ Δ<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 22 -<br />

⊥ = P.<br />

Or l’endomorphisme u’ induit par u dans P est encore une isométrie <strong>de</strong> P (puisqu’il conserve lui aussi la<br />

norme, <strong>de</strong>s vecteurs <strong>de</strong> P cette fois).<br />

Dans une base orthonormale : B = (e1, e2, e3), <strong>de</strong> E adaptée alors à la décomposition : E = P ⊕ Δ, on a :<br />

⎛mat(<br />

u',<br />

B')<br />

0⎞<br />

mat(u,B) = ⎜<br />

⎟ , où B’ est une base orthonormale <strong>de</strong> P.<br />

⎝ 0 1⎠<br />

On constate alors que : <strong>de</strong>t(u) = <strong>de</strong>t(u’), et donc : <strong>de</strong>t(u’) = +1.<br />

Le théorème 9.2 montre alors que :<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

0⎞<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎞<br />

⎜<br />

⎟<br />

∃ θ ∈ , mat(u’,B’) = ⎜<br />

⎟ , et : mat(u,B) = ⎜ sin( θ)<br />

cos( θ)<br />

0⎟<br />

.<br />

⎝ sin( θ)<br />

cos( θ)<br />

⎠<br />

⎜<br />

⎟<br />

⎝ 0 0 1⎠<br />

Si maintenant : tr(u) = – 1, cela signifie que : 2.cos(θ) + 1 = -1, et : π = 0 (2.π).<br />

⎛−<br />

1 0 0⎞<br />

⎜ ⎟<br />

La matrice <strong>de</strong> u dans la base précé<strong>de</strong>nte est alors : ⎜ 0 −1<br />

0⎟<br />

, et u est bien la symétrie orthogonale<br />

⎜ ⎟<br />

⎝ 0 0 1⎠


par rapport à la droite Δ.<br />

Si en revanche : tr(u) ≠ – 1, alors u’ est la rotation <strong>de</strong> P d’angle +θ si P est orienté avec la base<br />

précé<strong>de</strong>nte, l’angle θ étant donné par : tr(u) = tr(mat(u,B)) = 2.cos(θ) + 1.<br />

Plus généralement, si x est un vecteur non nul <strong>de</strong> P, alors u(x) est non colinéaire à x puisque sinon u’<br />

admettrait <strong>de</strong>s valeurs propres réelles ce qui n’est pas la cas.<br />

Donc la famille (x, u(x), x∧u(x)) est une famille libre <strong>de</strong> E, donc une base <strong>de</strong> E, directe.<br />

Si on oriente alors Δ avec : k = x ∧ u(x), et P avec l’orientation induite par ce choix sur Δ, la famille<br />

(x, u(x)) est une base directe <strong>de</strong> P et la rotation dans le plan P s’effectue dans le sens direct.<br />

Reste à examiner le cas :<br />

• <strong>de</strong>t(u) = – 1.<br />

Les racines <strong>de</strong> Pu sont alors : (– 1, – 1, – 1), (– 1, +1, +1), ou : (– 1, λ, λ ).<br />

– 1 est alors toujours valeur propre <strong>de</strong> u.<br />

Si u n’est pas – idE, cette valeur propre est simple et l’espace propre associé est <strong>de</strong> dimension 1, soit<br />

une droite vectorielle Δ <strong>de</strong> E.<br />

Notons encore P le plan orthogonal à Δ, et s la symétrie orthogonale <strong>de</strong> E par rapport à P.<br />

⎛1<br />

0 0 ⎞<br />

⎜ ⎟<br />

Pour une base B adaptée à la décomposition : E = P ⊕ Δ, on a alors : mat(s,B) = ⎜0<br />

1 0 ⎟ , et la<br />

⎜ ⎟<br />

⎝0<br />

0 −1⎠<br />

composée sou est une isométrie <strong>de</strong> E, positive puisque : <strong>de</strong>t(s) = <strong>de</strong>t(u) = – 1, Δ étant <strong>de</strong> plus invariante<br />

par cette isométrie.<br />

D’après ce qu’on vient juste d’établir, on peut en déduire que :<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

0⎞<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

0 ⎞<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

∃ θ ∈ , mat(sou,B) = ⎜ sin( θ)<br />

cos( θ)<br />

0⎟<br />

, et : mat(u,B) = ⎜ sin( θ)<br />

cos( θ)<br />

0 ⎟ .<br />

⎜<br />

⎟<br />

⎝ 0 0 1<br />

⎜<br />

⎟<br />

⎠<br />

⎝ 0 0 −1⎠<br />

Dans le cas où : cos(u) = – 1, u est alors – idE, mais ce cas est écarté ici, sinon <strong>de</strong>ux cas se présentent :<br />

tr(u) = +1, (soit : cos(θ) = 1) et u est alors la symétrie orthogonale par rapport à Δ,<br />

tr(u) ≠ +1, (soit : cos(θ) ≠ 1) et u est la composée <strong>de</strong> s et d’une rotation d’axe Δ.<br />

Les éléments géométriques <strong>de</strong> cette rotation s’obtiennent alors comme précé<strong>de</strong>mment, notamment pour<br />

tout ce qui concernent les différentes orientations d’espaces, avec comme différence le fait que son<br />

angle est cette fois donné par : tr(u) = tr(mat(u,B)) = 2.cos(θ) – 1.<br />

Théorème 9.4 : éléments <strong>de</strong> O(3) : matrices orthogonales 3××××3<br />

Soit : A ∈ O(3), une matrice orthogonale <strong>de</strong> taille 3×3.<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎜<br />

• si : <strong>de</strong>t(A) = +1, alors : ∃ θ ∈ , P ∈ O(3), A = P. ⎜ sin( θ)<br />

cos( θ)<br />

⎜<br />

⎝ 0 0<br />

⎛cos(<br />

θ)<br />

− sin( θ)<br />

⎜<br />

• si : <strong>de</strong>t(A) = – 1, alors : ∃ θ ∈ , P ∈ O(3), A = P. ⎜ sin( θ)<br />

cos( θ)<br />

⎜<br />

⎝ 0 0<br />

0⎞<br />

⎟<br />

0⎟<br />

.<br />

1⎟<br />

⎠<br />

t P.<br />

0 ⎞<br />

⎟<br />

0 ⎟ .<br />

−1⎟<br />

⎠<br />

t P.<br />

Démonstration :<br />

Si on appelle u l’endomorphisme canoniquement associé (dans 3 muni <strong>de</strong> son produit <strong>scalaire</strong><br />

canonique), u est un endomorphisme orthogonal <strong>de</strong> 3 , donc il existe comme on l’a vu dans la<br />

démonstration du théorème 9.3 une base orthonormale <strong>de</strong> 3 dans laquelle la matrice <strong>de</strong> u est d’un <strong>de</strong>s<br />

<strong>de</strong>ux types proposés (la différence se faisant par l’examen du déterminant <strong>de</strong> u).<br />

Il suffit alors d’appeler P la matrice <strong>de</strong> passage <strong>de</strong> la base canonique <strong>de</strong> 3 à la base B évoquée<br />

au-<strong>de</strong>ssus : cette matrice est orthogonale, d’où le résultat annoncé.<br />

Chapitre <strong>11</strong> : <strong>Produit</strong> <strong>scalaire</strong> – cours <strong>complet</strong>. - 23 -

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!