13.07.2015 Views

Cours Algèbre Deuxième année de licence de Mathématiques.

Cours Algèbre Deuxième année de licence de Mathématiques.

Cours Algèbre Deuxième année de licence de Mathématiques.

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

2.1.2 Formules dans un anneau Aa)(I, J ensembles) ( )finis, (a i ) i∈I éléments <strong>de</strong> A , (b j ) j∈J éléments <strong>de</strong> A∑ ∑a i b j = ∑a i b ji∈I j∈J(i,j)∈I×Jb) Si A est commutatif, n ∈ N ∗ , a, b ∈ A∑n−1a n − b n = (a − b) a k b n−k−1(a + b) n =k=0n∑Cna k k b n−kk=0si A n’est pas commutatif, il suffit d’avoir ab = ba.2.1.3 Morphisme d’anneauf : A → B est { un morphisme d’anneau si et seulement sif(x + y) = f(x) + f(y) et∀(x, y) ∈ A 2 f(1{A} ) = 1 Bf(xy) = f(x)f(y)Remarque : si a est inversible dans A alors f(a) est inversible dans B et f(a −1 ) = (f(a)) −12.1.4 Sous anneauxDéfinition 2.1.4 (A, +, ×) un anneau, B ⊂ AB est un sous anneau <strong>de</strong> A si et seulement si. B est un sous-groupe additif <strong>de</strong> A. B est stable pour ×. B contient l’élément neutre 1Proposition 2.1.5 f : A → A ′ morphisme d’anneaux, B ⊂ A, B ′ ⊂ A ′ . On suppose Bsous anneau <strong>de</strong> A, B ′ sous anneau <strong>de</strong> AAlors f(B) est un sous anneau <strong>de</strong> A ′ et f −1 (B ′ ) est un sous anneau <strong>de</strong> AProposition 2.1.6 Une intersection quelconque <strong>de</strong> sous anneau <strong>de</strong> A est un sous ⋂ anneau<strong>de</strong> A. On peut définir le sous anneau engendré par une partie B commeA2.2 Corps :On appelle corps tout anneau ≠ {0} dont tout élément non nul est inversible.Propriété : Soit (K, +, ×) un corps6B⊂AA anneau


K\{0} est un groupe multiplicatifK n’admet pas <strong>de</strong> diviseur 0.Définition 2.2.1 On appelle morphisme <strong>de</strong> corps tout morphisme <strong>de</strong>s anneaux sous jacants.Définition 2.2.2 K un corps L ⊂ KL est un sous corps <strong>de</strong> K si et seulement si L est un sous anneau <strong>de</strong> K qui est un corpsie si et seulement si1 ∈ L, ∀(x, y) ∈ L 2 x − y ∈ L, xy ∈ L∀x ∈ L\{0} x −1 ∈ L.L’intersection d’une famille <strong>de</strong> sous corps <strong>de</strong> K est un sous corps <strong>de</strong> K.7


Proposition 3.2.3 E un Kev, E ∗ son dual.L’application E∗ × E → K est bilinéaire(y ∗ , x) ↦→< y ∗ , x >On l’appelle “crochet <strong>de</strong> dualité”.3.2.1 OrthogonalThéorème 3.2.4 Pour tout x ∈ E, l’ensemble x ⊥ = {y ∗ ∈ E ∗ , < y ∗ , x >= 0} est un sev<strong>de</strong> E ∗ appelé sous espace orthogonal <strong>de</strong> x.Plus généralement, si A ⊂ E, on poseA ⊥ = {y ∗ ∈ E ∗ , ∀a ∈ A, < y ∗ , a >= 0}A ⊥ est un sev <strong>de</strong> E ∗ , appelé sous espace orthogonal <strong>de</strong> A.Proposition 3.2.5 E ⊥ = {0}Théorème 3.2.6 Pour tout y ∗ ∈ E ∗ , on pose(y ∗ ) ◦ = {x ∈ E, < y ∗ , x >= 0}(y ∗ ) ◦ est un sev <strong>de</strong> E appelé sous espace orthogonal <strong>de</strong> y ∗si A ∗ ⊂ E ∗ ,(A ∗ ) ◦ = {x ∈ E, ∀a ∗ ∈ A ∗ , < a ∗ , x >= 0}(A ∗ ) ◦ est un sev <strong>de</strong> E, appelé sous espace orthogonal <strong>de</strong> A ∗ .Définition 3.2.7 y ∗ ∈ E ∗ et x ∈ E sont orthogonaux si et seulement si < y ∗ , x >= 0B ∗ ⊂ E ∗ et A ⊂ E sont orthogonaux si et seulement si∀y ∗ ∈ B ∗ , ∀x ∈ A, < y ∗ , x >= 0Proposition 3.2.8 B ∗ et A sont orthogonaux ssi B ∗ ⊂ A ⊥ ssi A ⊂ (B ∗ ) ◦Proposition 3.2.9 A, B parties <strong>de</strong> E, si A ⊂ B alors B ⊥ ⊂ A ⊥Proposition 3.2.10 ∀A ⊂ E ,Proposition 3.2.11 ∀A ⊂ E ,A ⊥ = (vect A) ⊥A ⊂ (A ⊥ ) ◦Remarque : A ∗ ⊂ B ∗ ⇒ (B ∗ ) ◦ ⊂ (A ∗ ) ◦ , (A ∗ ) ◦ = (vect A ∗ ) ◦ , A ∗ ⊂ ((A ∗ ) ◦ ) ⊥3.2.2 BidualDéfinition 3.2.12 On appelle bidual <strong>de</strong> l’espace vectoriel E, l’espace dual <strong>de</strong> E. On lenote E ∗∗ .E ∗∗ × E ∗ → K(x ∗∗ , y ∗ ) ↦→ x ∗∗ (y ∗ ) =< x ∗∗ , y ∗ >ESoit x ∈ E, on pose ˆx :∗ → Ky ∗ ↦→< y ∗ , x > =< ˆx, y ∗ >ˆx est linéaire.E → EThéorème 3.2.13 ψ :∗∗ est linéairex ↦→ ˆxOn l’appelle application linéaire canonique <strong>de</strong> E dans E ∗∗ .9


3.2.3 Transposition :E, F <strong>de</strong>s Kev, u ∈ L(E, F ).on pose t Fu :∗ → E ∗y ∗ ↦→ t u(y ∗ ) = y ∗ ◦ u.C’est la transposée <strong>de</strong> u.Théorème 3.2.14 si u ∈ L(E, F ) alors t u ∈ L(F ∗ , E ∗ )Autre écriture <strong>de</strong> la transposée∀y ∗ ∈ F ∗ ∀x ∈ E ( t u(y ∗ ))(x) = y ∗ (u(x))ie “′′< t u(y ∗ ), x >=< y ∗ , u(x) >Théorème 3.2.15 L’applicationOn l’appelle transposition.L(E, F ) → L(F ∗ , E ∗ ) est linéaireu ↦→ t uProposition 3.2.161) Pour tous u ∈ L(E, F ) , v ∈ L(F, G) t (v ◦ u) = t u ◦ t v.2) t (Id E ) = Id E ∗3) Si u ∈ L(E, F ) est bijective alors t u est bijective et t (u −1 ) = ( t u) −14) Soit u ∈ L(E, F ) alors Ker( t u) = (Im u) ⊥Corollaire 3.2.17 Si u est surjective alors t u est injective.Théorème 3.2.18 ψ E , ψ F les applications canoniques E → E ∗∗ , F → F ∗∗ alors pourtout u ∈ L(E, F ), l’élément t ( t u) ∈ L (E ∗∗ , F ∗∗ ) vérifie t ( t u) ◦ ψ E = ψ F ◦ u3.3 Dualité en dimension finieE, F sont <strong>de</strong>s Kev <strong>de</strong> dimension finie pour tout ce paragraphe.Théorème 3.3.1 dim E = dim E ∗ si E <strong>de</strong> dimension finie.3.3.1 Base duale(e 1 , . . . , e n ) base <strong>de</strong> E.On définit e ∗ i ∈ L(E, K) pare ∗ i (e j ) = δ ij .(e ∗ 1, . . . , e ∗ n) est la base duale <strong>de</strong> (e 1 , . . . , e n ).Proposition 3.3.2 Si E est <strong>de</strong> dimension finie, (E ∗ ) 0 = {0}Théorème 3.3.3 ψ : E → E ∗∗ application canoniqueSi dim E finie alors ψ est un isomorphisme.Théorème 3.3.4 E est un Kev <strong>de</strong> dimension finie. L’application qui a toute base <strong>de</strong> Eassocie sa duale est une bijection <strong>de</strong> l’ensemble <strong>de</strong>s bases <strong>de</strong> E sur l’ensemble <strong>de</strong>s bases<strong>de</strong> E ∗ .10


Proposition 3.3.5 E, F <strong>de</strong> dimension finie.La transposition est un isomorphisme <strong>de</strong> L(E, F ) sur L(F ∗ , E ∗ ).Théorème 3.3.6 E un Kev <strong>de</strong> dimension finie, E ∗ son dual.Pour tout sous espace vectoriel F <strong>de</strong> E, on aPour tout sous espace G ∗ <strong>de</strong> E ∗ , on adim F + dim F ⊥ = dim E et F = (F ⊥ ) 0dim G ∗ + dim(G ∗ ) 0 = dim E et G ∗ = (G ∗0 ) ⊥Corollaire 3.3.7 E, F <strong>de</strong>s Kev <strong>de</strong> dimension finie, u ∈ L(E, F )rg u = rg t u.3.4 Transposition et matricesDéfinition 3.4.1 M = (a ij ) 1≤i≤ndans M np (K)1≤j≤pOn appelle matrice transposée <strong>de</strong> M et on note t M, l’élément <strong>de</strong> M pn (K) ,t M = (b ij ) défini par1≤i≤p1≤j≤nThéorème 3.4.2∀(i, j) ∈ N p × N n , b ij = a jiE Kev <strong>de</strong> dimp > 0, F Kev <strong>de</strong> dim n > 0(e 1 , e p ) base <strong>de</strong> E (f 1 , . . . , f n ) base <strong>de</strong> Fu ∈ L(E, F )On note M = Mat (f,e) uAlors t M = Mat (e ∗ ,f ∗ ) t uoù e ∗ base duale <strong>de</strong> e et f ∗ base duale <strong>de</strong> f.Corollaire 3.4.3 1) M → t M est un isomorphisme <strong>de</strong> M np (K) dans M pn (K)2) si le produit BA existe alors le produit t A t B existe et t (BA) = t A t B3) Si A est une matrice carrée inversible alors t A est inversible et ( t A) −1 = t (A −1 )11


Chapitre 4Déterminant4.1 Applications multilinéairesK = R ou C ou Q dans tout le chapitre.4.1.1 DéfinitionsK corps commutatif, E 1 , . . . , E p , F <strong>de</strong>s Kev.f : E 1 × . . . × E p → F est p linéaire si et seulement si∀j ∈ {1, . . . , p}, ∀a k ∈ E k k ∈ {1, . . . , p}\{j}l’application E j → F est linéairex ↦→ f(a 1 , . . . , a j−1 , x, a j+1 , . . . , a p )Notation : σ ∈ S n f : E p → Ff σ E:p → F(x 1 , . . . , x p ) ↦→ f(x σ(1) , . . . , x σ(p))Définition 4.1.1 f : E p → F p linéairef est symétrique si et seulement si ∀σ ∈ S n , f σ = ff est antisymétrique si et seulement si ∀σ ∈ S n , ɛ(σ)f = f σf est alternée si et seulement si pour tout (x 1 , . . . , x p ) ∈ E p ,si ∃i, j ∈ {1, . . . , p} tq i ≠ j et x i = x j alors f(x 1 , . . . , x p ) = 0Proposition 4.1.2 {f : E 1 ×. . .×E p → F p linéaires} est un sev <strong>de</strong> l’ev <strong>de</strong>s applications<strong>de</strong> E 1 × . . . × E p → F .On le note L p (E 1 , . . . , E p ; F ) ou L p (E p , F ) si E i = EA p (E, F ) = {f ∈ L p (E p , F ) , f alternée} est un sev <strong>de</strong>L p (E p , F ).S p (E, F ) = {′′ ′′Proposition 4.1.3 f : E p → F p linéairef est alternée ⇐⇒ f est antisymétriquef symétrique} est un sev <strong>de</strong>L p (E p , F ).12


4.1.2 Propriétésa) Soit (x 1 , . . . , x p ) ∈ E p , on suppose qu’ ∃i ∈ {1, . . . , p} tq x i = 0 alors f(x 1 , . . . , x p ) = 0b) f ∈ A p (E, F )p∑f(x 1 , . . . , x p ) = f(x 1 , . . . , x i + λ j x j , x i+1 , . . . , x p )j=1,j≠ic)f ∈ A p (E, F ) si x 1 , . . . , x p sont liésalors f(x 1 , . . . , x p ) = 0conséquence : si E est <strong>de</strong> dimension finie et dim E < palors A p (E, F ) = {0}d)Théorème : f ∈ L p (E p , F )On pose A(f) = ∑ σ∈S pɛ(σ)f σA(f) est l’antisymétrisée <strong>de</strong> fA(f) est alternée.4.2 DéterminantsE un Kev <strong>de</strong> dimension finie n.On note A n (E, K) = A n (E)E admet une base (e 1 , . . . , e n ) = eE ∗ admet la base duale (e ∗ 1, . . . , e ∗ n)4.2.1 Déterminant dans la base eProposition 4.2.1f : E n → K est une forme n linéaire(x 1 , . . . , x n ) ↦→ ∏ ni=1 < e∗ i , x i >On considère l’antisymétrisée <strong>de</strong> f, appelée déterminant dans la base e et notée<strong>de</strong>t e (x 1 , . . . , x n ) = ∑ n∏ɛ(σ) < e ∗ i , x σ(i) >σ∈S nOn a <strong>de</strong>t e (e 1 , . . . , e n ) = 1i=1Théorème 4.2.2 A n (E) =< <strong>de</strong>t e >Définition 4.2.3 <strong>de</strong>t e (x 1 , . . . , x n ) = déterminant dans la base e du système <strong>de</strong>s vecteurs(x 1 , . . . , x n ).<strong>de</strong>te (x 1, . . . , x n ) = ∑ σ∈S nɛ(σ)= ∑ σ∈S nɛ(σ)n∏< e ∗ j, x σ(j) >j=1n∏< e ∗ σ(j), x j >j=113


4.2.2 Application aux bases d’un espace vectorielProposition 4.2.4 Soit E un Kev <strong>de</strong> dimension non nulle net a = (a 1 , . . . , a n ) une base <strong>de</strong> E.Alors pour toute base e <strong>de</strong> E, <strong>de</strong>t e (a 1 , . . . , a n ) ≠ 0.Proposition 4.2.5 Soit E un Kev <strong>de</strong> dimension n ≥ 1.Tout système lié <strong>de</strong> n vecteurs <strong>de</strong> E admet un déterminant nul dans toute base <strong>de</strong> E.Corollaire 4.2.6 E un Kev <strong>de</strong> dimension n ≥ 1, e base <strong>de</strong> E. Un système <strong>de</strong> n vecteursest libre si et seulement si le déterminant <strong>de</strong> ce système dans la base e est non nul.4.2.3 Déterminant d’un endomorphismeThéorème 4.2.7 Soit E un Kev <strong>de</strong> dimension n ≥ 1u ∈ L(E) u endomorphisme <strong>de</strong> EIl existe un unique scalaire, appelé déterminant <strong>de</strong> u et noté <strong>de</strong>t u, tq ∀f ∈ A n (E),∀(x 1 , . . . , x n ) ∈ E n , f(u(x 1 ), . . . , u(x n )) = (<strong>de</strong>t u)f(x 1 , . . . , x n ).Remarque : <strong>de</strong>t e (u(e 1 ), . . . , u(e n )) = <strong>de</strong>t uProposition 4.2.8 E un Kev <strong>de</strong> dimension n ≥ 11) <strong>de</strong>t Id E = 12) ∀λ ∈ K , ∀u ∈ L(E) , <strong>de</strong>t(λu) = λ n <strong>de</strong>t u3) ∀u ∈ L(E) , <strong>de</strong>t t u = <strong>de</strong>t u4)∀(u, v) ∈ L(E) e <strong>de</strong>t v ◦ u = (<strong>de</strong>t v)(<strong>de</strong>t u)Conséquence : Soit E un Kev <strong>de</strong> dimension finie n ≥ 1u est inversible si et seulement si <strong>de</strong>t u ≠ 0On a alors <strong>de</strong>t u −1 = (<strong>de</strong>t u) −1u ∈ L(E)4.2.4 Déterminant d’une matrice carréeDéfinition 4.2.9 Soit M = (a ij ) i,j une matrice n × n <strong>de</strong> K.déterminant <strong>de</strong> M = <strong>de</strong>t Mla base canonique <strong>de</strong> K n⎛⎞a 11 a 12 . . . . . . a 1n.M =a i1 . . . a ij . . . a in⎜⎟⎝ .⎠a n1 . . . . . . . . . a nn= déterminant du système <strong>de</strong>s vecteurs colonnes <strong>de</strong> M dans14


∣ a 11 . . . . . . a 1n ∣∣∣∣∣∣<strong>de</strong>t M =.∣a n1 . . . . . . a nnRemarque : <strong>de</strong>t M = <strong>de</strong>t t M.<strong>de</strong>t M = ∑ σ∈S nɛ(σ)= ∑ σ∈S nɛ(σ)n∏j=1n∏j=1a jσ(j)a σ(j)jPropriétés :1) Si on échange <strong>de</strong>ux colonnes d’une matrice, son déterminant est transformé en sonopposé2)Le déterminant d’une matrice dépend linéairement <strong>de</strong> chacun <strong>de</strong> ses vecteurs colonnes3) Le déterminant d’une matrice ne change pas quand on ajoute à un <strong>de</strong> ses vecteurscolonnes une combinaison linéaire <strong>de</strong>s autres vecteurs colonnes. Il est nul si l’un <strong>de</strong>svecteurs colonnes est combinaison linéaire <strong>de</strong>s autres.4) i<strong>de</strong>m avec les vecteurs lignes.Théorème 4.2.10 E Kev <strong>de</strong> dimension finie n ≥ 1Soit u ∈ L(E), e une base <strong>de</strong> E, M = mat e uAlors <strong>de</strong>t u = <strong>de</strong>t MRemarque : <strong>de</strong>t u est indépendant <strong>de</strong> la base.Propriété :a) <strong>de</strong>t I = 1b) ∀λ ∈ K ∀M ∈ M n (K) <strong>de</strong>t λM = λ n <strong>de</strong>t Mc) ∀(M, N) ∈ (M n (K)) 2 <strong>de</strong>t NM = <strong>de</strong>t N <strong>de</strong>t Md) M est inversible si et seulement si <strong>de</strong>t M ≠ 0On a alors <strong>de</strong>t(M −1 ) = (<strong>de</strong>t M) −1 .e) si M =( A C0 B), <strong>de</strong>t M = <strong>de</strong>t A <strong>de</strong>t B15


Chapitre 5Diagonalisation -Trigonalisation5.1 Sous espaces propresE est un Kev <strong>de</strong> dimension finie ou infinie.Rappel : E un Kev, F ⊂ E, u ∈ L(E)F stable par u si et seulement si u(F ) ⊂ F .Définition 5.1.1 : E un Kev, u ∈ L(E)S’il existe λ ∈ K, x ∈ E\{0} tq u(x) = λx alors on dit que λ est une valeur propre <strong>de</strong> uet que x est un vecteur propre <strong>de</strong> u, associé à la valeur propre λ.Définition 5.1.2 : Spectre <strong>de</strong> u = Sp u = {λ ∈ K, λ vp <strong>de</strong> u}Théorème 5.1.3 u ∈ L(E) , λ ∈ K , E(λ) = Ker(u − λId E )λ vp <strong>de</strong> u ⇔ u − λ Id E non injective⇔ Ker(u − λ Id E ) ≠ {0}Définition 5.1.4 : u ∈ L(E), λ vp <strong>de</strong> u, E(λ) = Ker(u−λId E ) est le sous espace propre<strong>de</strong> u associé à λ.Théorème 5.1.5 : u ∈ L(E), λ 1 , ..., λ n <strong>de</strong>s valeurs propres <strong>de</strong>ux à <strong>de</strong>ux distinctes <strong>de</strong> u.Alors la sommeE(λ 1 ) + ... + E(λ n ) est directe.On pose E i = E(λ i ).Généralisation∑: soit (λ i ) i∈I une famille <strong>de</strong> vp <strong>de</strong>ux à <strong>de</strong>ux distinctes <strong>de</strong> u. On appellex i où (x i ) i∈I parcourt l’ensemble <strong>de</strong>s familles presqueM i l’ensemble <strong>de</strong>s sommes ∑i∈I i∈Inulles d’élements <strong>de</strong> E tq x i ∈ M i pour tout i ∈ I.La somme <strong>de</strong>s sous espaces propres associés aux λ i est directe.∑Définition 5.1.6 : u ∈ L(E), Ker(u − λId E ) est directe.Lorsque ⊕λ∈Spuλ∈SpuKer(u − λId E ) = E on dit que u est diagonalisable.16


Théorème 5.1.7 : u, v ∈ L(E). On suppose u ◦ v = v ◦ u1) Tout sous espace propre <strong>de</strong> u est stable par v.2) Ker u et Im u sont stables par v.5.2 Diagonalisation - TrigonalisationNotation : E un Kev <strong>de</strong> dimension finie non nulle n.u ∈ L(E), Id E : E → E, I = Matrice unité n × nx → x,M = Mat e u, e base <strong>de</strong> EM = (a ij ) 1≤i,j≤n5.2.1 Polynôme caractéristique d’une matriceλ est un vp <strong>de</strong> u ssi λId E − u est non inversiblessi λI − M non inversiblessi <strong>de</strong>t(λI − M) = 0XI − M est une matrice à coef dans K(X). Son déterminant est un polynôme dont lesracines sont les vp <strong>de</strong> u.On appelle polynôme caractéristique <strong>de</strong> M, le déterminant <strong>de</strong> XI − M. On le note χ Mχ M (X) =∣∣X − a 11 −a 12 . . . −a 1n ∣∣∣∣∣∣∣∣−a 21 X − a 22 −a 2n.−a n1 . . . X − a nnProposition 5.2.1 M et t M ont le même polynôme caractéristique.5.2.2 Polynôme caractéristique d’un endomorphismeThéorème 5.2.2 : u ∈ L(E), dimE = n ≥ 1Le polynôme caractéristique <strong>de</strong> la matrice qui représente u dans une base <strong>de</strong> E est indépendantdu choix <strong>de</strong> cette base. On l’appelle polynôme caractéristique <strong>de</strong> u, on le note χ u . Les vp <strong>de</strong>u sont les racines <strong>de</strong> χ u , l’ordre <strong>de</strong> multiplicité d’une racine λ <strong>de</strong> χ u , est dite multiplicité<strong>de</strong> la valeur propre λ <strong>de</strong> u.Proposition 5.2.3 : u et t u ont le même polynôme caractéristique.Théorème 5.2.4 : u ∈ L(E), E ′ sev <strong>de</strong> E stable par u <strong>de</strong> dim p ≥ 1.On a u |E ′∈ L(E ′ ). On pose u ′ = u |E ′Alors χ u ′ divise χ u .17


5.2.3 Détermination pratique <strong>de</strong>s vp et Vp5.2.4 Valeurs propres et vecteurs propres d’une matriceM ∈ M n (K)Ce sont les vp et Vp <strong>de</strong> l’endomorphisme canoniquement associé à M.u : K n → K nMat u = M5.2.5 Endomorphismes diagonalisablesDéfinition 5.2.5 : P est scindé si et seulement si P est constant ou P admet <strong>de</strong>s racinesdans K dont la somme <strong>de</strong>s ordres <strong>de</strong> multiplicité est égale au <strong>de</strong>gré <strong>de</strong> P .Théorème 5.2.6 : E <strong>de</strong> dimension n ≥ 1, u ∈ L(E). Les propriétés suivantes sontéquivalentes :1) u est diagonalisable.2) Il existe e base <strong>de</strong> E telle que Mat e u soit diagonale.3) Le polynôme caractéristique <strong>de</strong> u est scindé sur K et pour toute vp <strong>de</strong> u, la multiplicitéest égale à la dimension du sev propre associé.Corollaire 5.2.7 Tout endomorphisme <strong>de</strong> E Kev <strong>de</strong> dimension n qui admet n valeurspropres différentes est diagonisable.Définition 5.2.8 : M ∈ M n (K) M est diagonisablesi et seulement si l’endomorphisme canoniquement associé à M est diagonisable.si et seulement si il existe P ∈ M n (K) inversible, il existe D diagonalisable telle queM = P DP −1 .5.2.6 Endomorphismes trigonalisablesDéfinition 5.2.9 : E un Kev <strong>de</strong> dimension n ≥ 1, u ∈ L(E)u est trigonalisable si et seulement si il existe e base <strong>de</strong> E telle que Mat e u est triangulaire.Théorème 5.2.10 : u est trigonalisable si et seulement si χ u est scindé sur K.Définition 5.2.11 :M trigonalisable ssi l’endomorphisme <strong>de</strong> K n associé à M est trigonalisablessissiil existe P inversible telle que T = P −1 M P avec T triangulaireχ M est scindé sur K18


Chapitre 6Formes bilinéaires symétriquesFormes quadratiques6.1 Formes bilinéaires symétriques :E est un Kev, E ≠ {0}, K = R, C ou Q.Notation : On noteB(E) = {formes bilinéaires sur E}.BS(E) = {formes bilinéaires symétriques sur E}Si E est <strong>de</strong> dimension finie, f ∈ B(E), on note [f] E = (f(e i , e j )) 1≤i,j≤n où E = (e i , . . . , e n )est une base <strong>de</strong> E.Théorème 6.1.1 : On suppose E <strong>de</strong> dimension finie.1)et dim B(E) = n 2B(E) → M nn (K) est un isomorphisme vectorielf ↦→ [f] E2) On note S n (K) = {matrice symétrique n × n sur K}dim BS(E) = n(n+1)2.BS(E) → S n (K)est un isomorphisme d’evf ↦→ [f] E .Remarque : si E est <strong>de</strong> dimension finie, E base <strong>de</strong> Ef ∈ B(E)A = [f] E19


⎛ ⎞ ⎛ ⎞x 1y 1⎜ ⎟ ⎜ ⎟X = ⎝ . ⎠ Y = ⎝ . ⎠x n y nOn a f(x, y) = t XAY = t Y t AXsi <strong>de</strong> plus, A est symétrique, f(x, y) = t Y AXChangement <strong>de</strong> base :n∑n∑si x = x ′ i f i y = y i ′ fii=1i=1On poseP = Mat EF Id. On a X = P X ′si B = [f] F , B = t P APApplications associées :f ∈ B(E), si x ∈ E, on noteI :J :E → E ∗y → f(., y)E → E ∗x → f(x, .)I et J sont linéaires <strong>de</strong> E dans E ∗ .On suppose que E est <strong>de</strong> dimension finie.On a : [f] E = Mat E ∗ EI = t Mat E ∗ EJI et J sont transposées l’une <strong>de</strong> l’autre.Définition 6.1.2 : Soit E un Kev <strong>de</strong> dimension finie.f ∈ B(E)rang <strong>de</strong> f = rang <strong>de</strong> I = rang <strong>de</strong> JThéorème 6.1.3 : Le rang d’une forme bilinéaire sur un ev <strong>de</strong> dimension finie est égalau rang <strong>de</strong> la matrice <strong>de</strong> cette forme dans toute base <strong>de</strong> E.Définition 6.1.4 : E <strong>de</strong> dimension n, si rang <strong>de</strong> f = n, on dit que f est non dégénérée.Sinon f est dite dégénérée.f non dégénérée ⇔ <strong>de</strong>t[f] E ≠ 0.6.2 Formes quadratiques :E un Kev <strong>de</strong> dimension finie, f ∈ B(E)f est symétrique si et seulement si ∀ E base <strong>de</strong> E, [f] E est symétrique.20


On pose Q(x) = f(x, x)On a Q(λx) = λ 2 Q(x) pour tout x ∈ E, λ ∈ Kf(x, y) = 1 2 (Q(x + y) − Q(x) − Q(y)) pour tout (x, y) ∈ E2 .Définition 6.2.1 : E <strong>de</strong> dimension finieUne forme quadratique sur E est une application Q : E → K qui s’exprime dans chaquebase <strong>de</strong> E sous la forme d’un polynôme homogène <strong>de</strong> <strong>de</strong>gré 2 <strong>de</strong>s variables coordonnéesou est i<strong>de</strong>ntiquement nul.Théorème 6.2.2 : E <strong>de</strong> dimension finie, Q : E → KQ est une forme quadratique si et seulement si1)∀x ∈ E, ∀λ ∈ K Q(λx) = λ 2 Q(x)B2) L’application (x, y) ↦−→ 1 (Q(x + y) − Q(x) − Q(y)) est bilinéaire.2De plus, on a alors B(x, x) = Q(x).Théorème 6.2.3 L’application qui a toute forme bilinéaire symétrique B fait correspondrela fq associée définie par Q(x) = B(x, x) est un isomorphisme <strong>de</strong> BS(E) sur l’espace<strong>de</strong>s formes quadratiques sur EQ = fq associé à BB = fb associé à Q ou forme polaire associée à Qrang forme quadratique Q := rang B.discriminant <strong>de</strong> Q := discriminant <strong>de</strong> f.6.3 Orthogonalité6.3.1 Définitions :Définition 6.3.1 : f ∈ BS(E)x et y sont orthogonaux par rapport à f si et seulement si f(x, y) = 0.A ⊂ EA ⊥ = {y ∈ E, ∀x ∈ A, f(x, y) = 0}Proposition 6.3.2 : E <strong>de</strong> dimension quelconque, f ∈ BS(E)1) ∀A ⊂ E , A ⊥ est un sev <strong>de</strong> E.2) {0} ⊥ = E3) (A ∪ B) ⊥ = A ⊥ ∩ B ⊥4) A → A ⊥ décroissante pour l’inclusion5) A ⊥ + B ⊥ ⊂ (A ∩ B) ⊥6) A ⊥ = (vect A) ⊥7) A ⊂ (A ⊥ ) ⊥ .Proposition 6.3.3 : E <strong>de</strong> dimension quelconque.F, G sev <strong>de</strong> E(F + G) ⊥ = F ⊥ ∩ G ⊥ .21


6.3.2 Noyau :Remarque : si B ∈ BS(E),I = JDéfinition 6.3.4 : Le noyau <strong>de</strong> la fq Q sur E est le noyau <strong>de</strong> l’application I : E → E ∗associée à la forme polaire B <strong>de</strong> Q.N = noyau <strong>de</strong> Q= {x ∈ E, ∀y ∈ E, B(x, y) = 0}= E ⊥Proposition 6.3.5 : si dim E est finiUne fq est non dégénérée si et seulement si sa forme polaire est non dégénérée, si etseulement si son noyau est réduit à {0}.Théorème 6.3.6 E <strong>de</strong> dimension finie.Q une forme quadratique non dégénérée <strong>de</strong> forme polaire B.Pour toute forme linéaire ϕ sur E, il existe un unique y ∈ E telle que ϕ(x) = B(x, y)pour tout x ∈ E.Théorème 6.3.7 E <strong>de</strong> dimension finie.Q une fq non dégénérée.Pour tout sev H <strong>de</strong> E, on a1) dim H + dim H ⊥ = n2) (H ⊥ ) ⊥ = H.Conséquence : si A ⊂ E (A ⊥ ) ⊥ = Vect A.Remarque : M = (a ij ) 1≤1≤m(S)1≤j≤nrang <strong>de</strong> M = ordre du plus grand déterminant extrait <strong>de</strong> M non nul1 ≤ i ≤ n= dim < vect colonnes <strong>de</strong> M >n∑a ij x j = oj=irang du système (S) = rang <strong>de</strong> MSi rang <strong>de</strong> (S) est r alors l’ensemble <strong>de</strong>s solutions <strong>de</strong> (S) forme un sev <strong>de</strong> K n <strong>de</strong> dimensionn − r.Définition 6.3.8 : E muni d’une forme quadratique qx ∈ E, x est isotrope si et seulement si q(x) = 0H ⊂ E, H est isotrope si et seulement si H ∩ H ⊥ ≠ {o}H est totalement istrope si et seulement si H ⊂ H ⊥Proposition 6.3.9 : E <strong>de</strong> dimension finie, H ⊂ E, q fq sur ESi H est non isotrope alors E = H ⊕ H ⊥ .22


Définition 6.3.10 : E <strong>de</strong> dimension finie, q fq sur ELa base (e 1 , . . . , e n ) est orthogonale (pour q) si et seulement si∀i ≠ j B(e i , e j ) = 0La base (e 1 , . . . , e n ) est orthonormale si et seulement si B(e i , e j ) = δ ijThéorème 6.3.11 Pour toute forme quadratique q sur un espace vectoriel <strong>de</strong> dimensionfinie, il existe une base orthogonale.Il n’existe pas forcément <strong>de</strong> base orthonormale.Proposition 6.3.12 : Soit E un Kev <strong>de</strong> dimension finie.Pour toute fq q sur E, ∃ base <strong>de</strong> E telle que la matrice <strong>de</strong> q dans cette base soit diagonalei.e telle que l’on ait dans cette baseq(x) =n∑λ i x 2 ii=16.4 Classification <strong>de</strong>s formes quadratiquesDéfinition 6.4.1 2 formes quadratiques q 1 et q 2 sur E sont équivalentes si et seulementil existe ϕ automorphisme <strong>de</strong> E telle que ∀x ∈ E, q 1 (x) = q 2 (ϕ(x))Théorème 6.4.2 Toute forme quadratique <strong>de</strong> rang r sur C n est équivalente à la formex 2 1 + . . . + x 2 nPour toute fq non dégénérée sur C n , il existe une base orthonormale (r = n).Théorème 6.4.3 (Théorème <strong>de</strong> la loi d’inertie <strong>de</strong> sylvester)Soit q une fq sur R n <strong>de</strong> rang r.q est équivalente à une forme du type x 2 1 + . . . + x 2 p − x 2 p+1 . . . − x 2 r où p ne dépend que <strong>de</strong>q.(p, r − p) := signature <strong>de</strong> q.Définition 6.4.4Une fq sur R n est définie positive ssi sa signature est (n, 0)” ” négative ssi sa signature est (0, n)Une fq <strong>de</strong> rang r est dite positive ssi sa signature est (r, 0)” ” négative ssi sa signature est (0, r)au lieu <strong>de</strong> signature, on dit <strong>de</strong> type (p, q)23


Chapitre 7Espaces Euclidiens7.1 Définition - Exemples :Un espace euclidien est défini par la donnée- d’un espace vectoriel E <strong>de</strong> dimension finie sur R- d’une forme quadratique Q définie positive sur ELa forme bilinéaire s associée à Q s’appelle le produit scolaire associé à Q7.2 Métrique associé à un espace euclidien <strong>de</strong> dim nThéorème 7.2.1 E espace euclidienQ forme quadratique définie positive.On pose N(x) = (Q(x)) 1/2N est une norme sur E appelée norme euclidienne associée à (E, Q).On peut alors définir sur E une structure métrique en posantd(x, y) = N(x − y).Théorème 7.2.2 (E, Q) espace euclidien, B la f.b. symétrique associée à Q. Pour tout(x, y) ∈ E 2 , on a (B(x, y)) 2 ≤ Q(x)Q(y)l’égalité n’étant réalisée que si x et y sont colinéaires,Inégalité <strong>de</strong> Cauchy Schwarz.7.3 Propriétés <strong>de</strong>s espaces euclidiens7.3.1 Sous espace euclidien(E, Q) espace euclidien, F sev <strong>de</strong> E.Q | F est une forme quadratique définie positive qui définit sur F une structure d’espaceeuclidien. On dit que F est un sous espace euclidien <strong>de</strong> E.24


7.3.2 Produit d’espaces euclidiens(E 1 , Q 1 ) espace euclidien, (E 2 , Q 2 ) espace euclidien.E = E 1 × E 2 .x = (x 1 , x 2 ) ↦→ Q(x) = Q 1 (x 1 ) + Q 2 (x 2 )Q est une forme quadratique définie positive sur E(E, Q) espace euclidien produit.B(x, y) = B(x 1 , y 1 ) + B(x 2 , y 2 )7.3.3 OrthogonalitéThéorème 7.3.1 Pour tout espace euclidien (E, Q) <strong>de</strong> dimension finie,pour tout sev F <strong>de</strong> E, on a E = F ⊕ F ⊥On dit que F ⊥ est le supplémentaire orthogonal <strong>de</strong> F .Théorème 7.3.2 (E, Q) espace euclidienF 1 , . . . , F k sev <strong>de</strong>ux à <strong>de</strong>ux orthogonaux tq E = ⊕ iF isi x = ∑ ion ax i est la décomposition sur les F i <strong>de</strong> xn∑Q(x) = Q(x i )i=1Relation <strong>de</strong> ParsevalQ(x) =n∑(B(x, e i )) 2i=1valable pour toute bonDéfinition 7.3.3 (E, Q) espace euclidien, e 1 , . . . , e p <strong>de</strong>s vecteurs <strong>de</strong> E(e 1 , . . . , e p ) forme un système orthonormal si et seulement si ils sont <strong>de</strong>ux à <strong>de</strong>ux orthogonauxet leur norme égale à 1. ie B(e i , e j ) = δ ijRemarque : : Un système orthonormal est libre.Toute partie d’un système orthonormal est orthonormal.Théorème 7.3.4 Tout système orthonormal d’un espace euclidien <strong>de</strong> dimension finiepeut être complété en une base orthonormale.Théorème 7.3.5 Procédé d’orthonormalisation <strong>de</strong> Schmidt.Soit (v 1 , . . . , v n ) base quelconque <strong>de</strong> l’espace euclidien (E, Q)∃ ! (e 1 , . . . , e n ) b ◦ n <strong>de</strong> E tq∀p ∈ {1, . . . , n} B(e p , v p ) > 0 (7.1)∀p ∈ {1, . . . , n} < e 1 , . . . , e p >=< v 1 , . . . , v p > (7.2)25


7.4 Groupe orthogonal réel(E, Q) espace euclidien.G = {ϕ ∈ L(E), ϕ bijective, ∀(x, y) ∈ E 2 , B(ϕ(x), ϕ(y)) = B(x, y)}(G, ◦) est un groupe appelé groupe orthogonal <strong>de</strong> Q. On le note 0(Q).Remarque : ∀(x, y) ∈ E 2 B(ϕ(x), ϕ(y)) = B(x, y)⇔ ∀x ∈ E Q(ϕ(x)) = Q(x)ϕ conserve B ou ϕ conserve QDéfinition 7.4.1 Si M vérifie t MM = I n , on dit que M est orthogonale.On a (<strong>de</strong>t M) 2 = 126

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!