AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF...

21
Algèbre linéaire de MPSI I - Structure d’espace vectoriel K désigne R ou C. 1) Définition On appelle K-espace vectoriel tout triplet (E, +,.) où : 1) E est un ensemble dont les éléments sont appelés vecteurs. 2) + est une loi de composition interne sur E telle que (E, +) soit un groupe abélien. L’élément neutre 0 est appelé vecteur nul. 3) . : K × E E (λ,x) λ.x est une loi de composition externe vérifiant : ∗∀(λ,μ) K 2 x E (λ + μ).x = λ.x + μ.x ; ∗∀λ K (x,y) E λ.(x + y)= λ.x + λ.y ; ∗∀(λ,μ) K 2 x E λ.(μ.x)=(λμ).x ; ∗∀x E 1.x = x. Exemples: 1) (K, +,.) où . est la multiplication dans K. 2) L’ensemble E D des applications d’un ensemble D dans un espace vectoriel E (les opéra- tions dans E D étant définies grâce à celles de E : f +g : x f (x)+g(x) ; λ.f : x λ.f (x)). 2) Propriétés élémentaires •∀x E 0.x =0. •∀λ K λ.0=0. •∀(λ,x) K × E λ.x =0 (λ =0 ou x = 0). •∀(λ,x) K × E (λ).x = (λ.x)= λ.(x). 3) Espace vectoriel produit Soit ( (E k , +,.) ) 1kn une famille de K-espaces vectoriels. L’ensemble E 1 ×···× E n muni des lois + et . définies par : (x 1 ,...,x n )+(y 1 ,...,y n )=(x 1 + y 1 ,...,x n + y n ) λ.(x 1 ,...,x n )=(λ.x 1 ,...,λ.x n ) est un K-espace vectoriel, appelé espace vectoriel produit de E 1 ,...,E n . Exemples: 1) L’exemple canonique est K n . 2) C s’identifie à R 2 en tant que R-espace vectoriel. II II- Sous-espaces vectoriels E désigne un K-espace vectoriel. 1) Définition Soit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restriction de la loi + à F × F et la restriction de la loi . à K × F induisent sur F une structure de K-espace vectoriel.

Transcript of AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF...

Page 1: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI

II - Structure d’espace vectorielK désigne R ou C.

1) DéfinitionOn appelle K-espace vectoriel tout triplet (E,+, .) où :

1) E est un ensemble dont les éléments sont appelés vecteurs.

2) + est une loi de composition interne sur E telle que (E,+) soit un groupe abélien.

L’élément neutre 0 est appelé vecteur nul.

3) . : K×E → E(λ, x) → λ.x

est une loi de composition externe vérifiant :

∗ ∀(λ, µ) ∈ K2 ∀x ∈ E (λ+ µ).x = λ.x+ µ.x ;

∗ ∀λ ∈ K ∀(x, y) ∈ E λ.(x+ y) = λ.x+ λ.y ;

∗ ∀(λ, µ) ∈ K2 ∀x ∈ E λ.(µ.x) = (λµ).x ;

∗ ∀x ∈ E 1.x = x.

Exemples : 1) (K,+, .) où . est la multiplication dans K.2) L’ensemble ED des applications d’un ensemble D dans un espace vectoriel E (les opéra-tions dansED étant définies grâce à celles deE : f+g : x → f(x)+g(x) ; λ.f : x → λ.f(x)).

2) Propriétés élémentaires

• ∀x ∈ E 0.x = 0.

• ∀λ ∈ K λ.0 = 0.

• ∀(λ, x) ∈ K×E λ.x = 0⇔ (λ = 0 ou x = 0).

• ∀(λ, x) ∈ K×E (−λ).x = −(λ.x) = λ.(−x).

3) Espace vectoriel produitSoit

((Ek,+, .)

)1≤k≤n

une famille de K-espaces vectoriels.L’ensemble E1 × · · · ×En muni des lois + et . définies par :

• (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

• λ.(x1, . . . , xn) = (λ.x1, . . . , λ.xn)

est un K-espace vectoriel, appelé espace vectoriel produit de E1, . . . , En.

Exemples : 1) L’exemple canonique est Kn.2) C s’identifie à R2 en tant que R-espace vectoriel.

IIII - Sous-espaces vectorielsE désigne un K-espace vectoriel.

1) DéfinitionSoit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restrictionde la loi + à F × F et la restriction de la loi . à K × F induisent sur F une structure de K-espacevectoriel.

Page 2: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 2

2) CaractérisationsUne partie F de E est un sous-espace vectoriel de E si et seulement si

• 0 ∈ F et∀(x, y) ∈ F 2 x+ y ∈ F et∀(λ, x) ∈ K× F λ.x ∈ F ;

ou bien

• 0 ∈ F et∀λ ∈ K ∀(x, y) ∈ F 2 λ.x+ y ∈ F .

3) Intersection de sous-espaces vectoriels

Théorème : l’intersection d’une famille quelconque de sous-espaces vectoriels de E est un sous-espacevectoriel de E.

Attention ! En général, l’union de deux sous-espaces vectoriels de E n’est pas un sous-espace vectorielde E (c’en est un si et seulement si l’un des deux sous-espaces considérés est inclus dansl’autre. . . ).

4) Sous-espace engendré par une partie ou une famille

Soit A une partie de E. On appelle sous-espace vectoriel engendré par A l’intersection de tous lessous-espaces vectoriels de E contenant A, notée VectA.

VectA est le plus petit (au sens de l’inclusion) des sous-espaces de E contenant A.

VectA est l’ensemble formé du vecteur nul et des vecteurs de la formep∑

k=1

λk.ak , où les λk sont des

scalaires et les ak des vecteurs de A (Vect ∅ = 0).

Si (xi)i∈I est une famille de vecteurs de E, on note Vect (xi)i∈I les sous-espace engendré par la partiexi, i ∈ I.

5) Somme de deux sous-espaces vectoriels

Définition : soient F et G deux sous-espaces vectoriels de E, on appelle somme de F et G la partiede E notée F +G définie par : F +G = x ∈ E / ∃(y, z) ∈ F ×G x = y + z.

Théorème : F + G est un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de Econtenant F et G (autrement dit F +G = Vect (F ∪G)).

6) Sous-espaces vectoriels supplémentaires

Définition : deux sous-espaces vectoriels F et G de E sont dits supplémentaires dans E si et seulementsi tout vecteur de E se décompose de façon unique comme somme d’un vecteur de F etd’un vecteur de G, c’est-à-dire si et seulement si :

∀x ∈ E ∃!(y, z) ∈ F ×G x = y + z .

Théorème : les assertions suivantes sont équivalentes :

a) F et G sont supplémentaires dans E.

b) E ⊂ F +G et F ∩G = 0.

Attention ! Ne pas confondre un supplémentaire et le complémentaire. Si x est un vecteur de E quin’appartient pas à F , x n’est pas pour autant nécessairement dans G ! On peut seulementaffirmer a priori que x s’écrit y + z, avec (y, z) ∈ F ×G et z = 0 . . .

Page 3: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 3

IIIIII - Translations, sous-espaces affinesSoit E un K-espace vectoriel.

1) Translations

Définition : pour tout vecteur a de E, on appelle translation de vecteur a l’application τa : x → a+x,de E dans E .

Propriétés : 1) τ0 = IE et ∀ (a, b) ∈ E2 τa τ b = τa+b.2) Pour tout a de E, τa est bijective et τ−1a = τ−a.3) L’ensemble des translations de E est un sous-groupe commutatif du groupe des bijec-tions de E dans E.

2) Sous-espaces affines

Définition : on appelle sous-espace affine de E toute partie W de E de la forme a+ F , où F est unsous-espace vectoriel de E et où l’on note :

a+ F = τa (F ) = a+ x, x ∈ F

Exemples : 1) Pour tout a de E, a+ 0 = a.2) Pour v vecteur non nul de E, et a ∈ E, a + Vect v est la droite affine passant par adirigée par v.

Théorème et définition : soit W = a+ F un sous-espace affine de E ; alors pour tout b de W , on aW = b+F ; par contre, le sous-espace vectoriel F est unique, on l’appellela direction de W .

Définition : soient W et W ′ deux sous-espaces affines de E. On dit que W est parallèle à W ′ si etseulement si la direction de W est incluse dans celle de W ′.

Attention ! Cette relation n’est pas symétrique. On dira que W et W ′ sont parallèles si et seulementsi leurs directions sont égales. Par exemple en dimension 3, on peut avoir une droiteparallèle à un plan, deux droites parallèles ou deux plans parallèles.

3) Intersection de deux sous-espaces affinesSoient W = a+ F et W ′ = a′ + F ′ deux sous-espace affines de E.

• L’intersection W ∩W ′ est, soit vide, soit un sous-espace affine de direction F ∩ F ′.

• Si F + F ′ = E, alors W ∩W ′ est non vide (c’est donc un sous-espace affine de direction F ∩ F ′).

• Si F et F ′ sont supplémentaires, W ∩W ′ est un singleton.

IVIV - Applications linéaires

1) DéfinitionSoient E et F deux K-espaces vectoriels et u une application de E dans F .On dit que u est linéaire (ou encore un morphisme d’espaces vectoriels) si et seulement si :

∀(x, y) ∈ E2 u(x+ y) = u(x) + u(y)∀λ ∈ K ∀x ∈ E u(λ.x) = λ.u(x)

(ou bien : ∀λ ∈ K ∀(x, y) ∈ E2 u(λ.x+ y) = λ.u(x) + u(y) )

Si, de plus :

• u est bijective, on dit que u est un isomorphisme (E et F sont dits isomorphes) ;

• E = F , on dit que u est un endomorphisme de E ;

• E = F et u bijective, on dit que u est un automorphisme de E ;

• F = K, on dit que u est une forme linéaire sur E.

Page 4: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 4

Notations : on désigne par

• L(E,F ) l’ensemble des applications linéaires de E dans F ;

• L(E) l’ensemble des endomorphismes de E.

• E∗ l’ensemble des formes linéaires sur E, appelé dual de E (ne pas confondre E∗ et E\0 !).

Propriétés : soit u ∈ L(E,F ).

1) u(0E) = 0F .

2) Si E′ est un sous-espace vectoriel de E, alors u(E′) est un sous-espace vectoriel de F .

3) Si F ′ est un sous-espace vectoriel de F , alors u−1(F ′) est un sous-espace vectoriel de E.

2) Image

Définition : soit u ∈ L(E,F ). On appelle image de u le sous-espace u(E) de F noté Imu :

Imu = y ∈ F / ∃x ∈ E u(x) = y = u(x), x ∈ E .

Propriété : u est surjective si et seulement si Imu = F .

3) Noyau

Définition : soit u ∈ L(E,F ). On appelle noyau de u le sous-espace u−1(0F) de E noté Keru :

Keru = x ∈ E / u(x) = 0F .

Propriété : u est injective si et seulement si Keru = 0E(ou encore si et seulement si : ∀x ∈ E u(x) = 0F ⇒ x = 0E ).

4) Équations linéairesÉtant donnés u dans L (E,F ) et b dans F , la résolution de l’équation linéaire u(x) = b est la recherchede l’ensemble S des vecteurs x de E tels que u(x) = b.S est vide si et seulement si b n’appartient pas à Imu.Lorsque b est dans Imu, S est non vide et pour tout x0 dans S, S est l’ensemble des vecteurs de E dela forme x0 + z, z décrivant Keru :

S = x0 +Keru = x0 + z, z ∈ Keru .

5) Exemples fondamentaux d’isomorphismes

• Tous les supplémentaires dans E d’un même sous-espace vectoriel de E sont isomorphes.

• Soit u ∈ L(E,F ). Tout supplémentaire de Keru dans E est isomorphe à Imu.

• Soient F et G deux sous-espaces vectoriels de E. L’application ϕ : F ×G −→ F +G(y, z) −→ y + z

est

linéaire surjective. C’est un isomorphisme si et seulement si F ∩G = 0.

6) Opérations sur les applications linéaires

a) Structure de L(E,F )

Si E et F sont deux K-espaces vectoriels, alors (L(E,F ),+, .) est un K-espace vectoriel.

b) Composition des applications linéaires

Si E,F,G sont des K-espaces vectoriels et si u ∈ L (E,F ), v ∈ L (F,G), alors v u ∈ L (E,G).Pour φ fixé dans L (E,F ), l’application v → v φ est une application linéaire de L (F,G) dans L (E,G).Pour ψ fixé dans L (F,G), l’application u → ψu est une application linéaire de L (E,F ) dans L (E,G).

Page 5: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 5

Théorème : si u est un isomorphisme de E dans F , alors u−1 est linéaire (donc un isomorphisme) deF dans E.

c) Structure de L(E)

Si E est un K-espace vectoriel, alors (L(E),+, ., ) est une K-algèbre.

Théorème et définition : soitGL(E) l’ensemble des automorphismes deE. (GL(E), ) est un groupe(non abélien en général), appelé groupe linéaire de E.

VV - Projecteurs et symétries

1) Projecteurs

Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application p de E dans E quià tout vecteur x de E associe le vecteur y de F tel que x = y + z avec (y, z) ∈ F ×G estappelée projecteur (ou projection vectorielle) de E sur F parallèlement à G.

Propriétés : soit p le projecteur de E sur F parallèlement à G.

a) p est un endomorphisme de E.

b) Ker p = G et Im p = F ; F est l’ensemble des vecteurs invariants par p.

c) IE − p est le projecteur de E sur G parallèlement à F .Caractérisation : soit p ∈ L(E). p est un projecteur si et seulement si p p = p.

Dans ce cas, p est le projecteur de E sur Im p parallèlement à Ker p.

2) Symétries vectorielles

Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application s de E dans E quià tout vecteur x de E associe le vecteur y − z de E où (y, z) est le couple de F ×G telque x = y + z est appelée symétrie vectorielle par rapport à F parallèlement à G.

Propriétés : soit s la symétrie vectorielle par rapport à F parallèlement à G.

a) s est un automorphisme involutif de E.

b) L’ensemble des vecteurs invariants par s est F ; l’ensemble des vecteurs transformésen leur opposé est G.

c) −s est la symétrie vectorielle par rapport à G parallèlement à F .

d) Si p est le projecteur de E sur F parallèlement à G, on a les relations :

s = 2p− IE , p =1

2· (IE + s) .

Caractérisation : soit s ∈ L(E). s est une symétrie vectorielle si et seulement si s s = IE .Alors s est la symétrie par rapport à F = x ∈ E / s(x) = x = Ker (s− IE)parallèlement à G = x ∈ E / s(x) = −x = Ker (s+ IE).

VIVI - Familles libres, génératrices ; bases

1) Familles génératrices

Définition : soit F = (xi)i∈I une famille finie de vecteurs de E. On dit qu’un vecteur x de E estcombinaison linéaire des vecteurs de F si et seulement s’il existe une famille (λi)i∈I ∈ KI

telle que x =∑

i∈I

λi.xi.

Définition : soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice deE si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e.VectF = E).

Page 6: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 6

Propriétés : 1) Toute sur-famille d’une famille génératrice est génératrice.2) Soit (xi)i∈I une famille finie, génératrice de E et J une partie de I. (xi)i∈J est aussiune famille génératrice de E si et seulement si, pour tout k de I\J , xk est combinaisonlinéaire des vecteurs de (xi)i∈J .

2) Familles libres

Définition : soit F = (x1, . . . , xp) une famille finie de vecteurs de E. On dit que F est libre si etseulement si la seule combinaison linéaire nulle des vecteurs de F est celle dont tous lescoefficients sont nuls :

∀(λ1, . . . , λp) ∈ Kp

(p∑

k=1

λk.xk = 0 =⇒ ∀k ∈ Np λk = 0

)

.

Une famille quelconque (xi)i∈I de vecteurs de E est dite libre si et seulement si toutes sessous-familles finies sont libres.Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.Par convention, ∅ est libre.

Propriétés : 1) Soit x ∈ E. La famille (x) formée du seul vecteur x est libre si et seulement si x estnon nul.2) Toute sous-famille d’une famille libre est libre.3) Une famille (xi)i∈I est libre si et seulement si, pour toute famille de scalaires (λi)i∈I àsupport fini, ∑

i∈I

λi.xi = 0⇒ ∀i ∈ I λi = 0.

4) Si une partie A de E est libre et si x est un vecteur de E, A ∪ x est libre si etseulement si x n’est pas combinaison linéaire des vecteurs de A (i.e. x /∈ VectA).

3) Familles liées

Définition : une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulementsi elle n’est pas libre. On dit alors que les vecteurs de F (resp. de A) sont linéairementdépendants.Deux vecteurs sont dits colinéaires si et seulement s’ils sont linéairement dépendants.

Caractérisation : 1) Une famille F de vecteurs de E est liée si et seulement s’il existe des vecteursx1, . . . , xp de F et une famille (λ1, . . . , λp) de scalaires non tous nuls telle que

p∑

k=1

λk.xk = 0 (relation de dépendance linéaire).

2) Une famille d’au moins deux vecteurs est liée si et seulement si l’un au moins deses vecteurs est combinaison linéaire des autres.3) Deux vecteurs x, y sont colinéaires si et seulement si : x = 0 ou ∃λ ∈ K y = λ.x.

Propriétés : 1) Toute sur-famille d’une famille liée est liée ; toute famille contenant le vecteur nul estliée.2) Si une partie A de E est libre et si x est un vecteur de E, A∪x est liée si et seulementsi x est combinaison linéaire des vecteurs de A (i.e. x ∈ VectA).

4) Bases

Définition : soit F une famille finie de vecteurs de E.On dit que F est une base de E si et seulement si F est libre et génératrice.

Une famille B = (ei)i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de E s’écritde manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x =

i∈I

λi.ei , la

famille (λi)i∈I est appelée la famille des coordonnées de x dans la base B.

Page 7: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 7

5) Caractérisation des familles libres et génératrices, des basesSoit (x1, . . . , xp) une famille de vecteurs de E. On lui associe l’application linéaire φ de Kp dans E qui,

à (λ1, . . . , λp) associe la combinaison linéairep∑

k=1

λkxk.

Propriétés : 1) (x1, . . . , xp) est libre si et seulement si φ est injective ;2) Imφ = Vect (x1, . . . , xp) ;(x1, . . . , xp) est génératrice si et seulement si φ est surjective ;

3) (x1, . . . , xp) est une base de E si et seulement si φ est un isomorphisme.

6) Image d’une famille de vecteurs par une application linéaireE et F sont deux K-espaces vectoriels.

Théorème : soient u ∈ L(E,F ), F = (xi)i∈I une famille finie de vecteurs de E et u(F) = (u(xi))i∈I .

a) Si F est une famille génératrice de E, alors u(F) est une famille génératrice de Imu.

b) Si F est liée, alors u(F) est liée.

c) Si F est libre et u injective, alors u(F) est libre.

Théorème : soit u ∈ L(E,F ) et B une base de E.

a) u est surjective si et seulement si u(B) est une famille génératrice de F .

b) u est injective si et seulement si u(B) est libre.

c) u est bijective si et seulement si u(B) est une base de F .

7) Caractérisation d’une application linéaire par l’image d’une base

Théorème : soient E et F deux K-espaces vectoriels, B = (ei)i∈I une base de E et (yi)i∈I une famillede vecteurs de F (indexées par le même ensemble I).Il existe une unique application linéaire u de E dans F telle que :

∀i ∈ I u(ei) = yi .

En outre :

∗ u est injective si et seulement si la famille (yi)i∈I est libre.

∗ u est surjective si et seulement si la famille (yi)i∈I est génératrice de F .

∗ u est bijective si et seulement si la famille (yi)i∈I est une base de F .

VIIVII - Notion de dimension

Définition : on dit qu’un K-espace vectoriel est de dimension finie si, et seulement si, il admet unefamille génératrice finie.

Lemme de SteinitzSi E est un K-espace vectoriel admettant une famille génératrice à p éléments (p ∈ N∗), alors toutefamille d’au moins p+ 1 éléments est liée.

Existence d’une baseTout espace vectoriel de dimension finie non réduit à 0 admet au moins une base.

Théorème et définition : soit E un K-espace vectoriel de dimension finie, non réduit à 0.1) E admet au moins une base finie B.2) Toutes les bases de E ont le même cardinal n.Cet entier est appelé dimension de E et est noté dimE ou dimKE.On convient que 0 est de dimension nulle.

Caractérisation des bases :Soit E un K-espace vectoriel de dimension n et F une famille de p vecteurs de E.

• Si F est libre, alors p ≤ n avec égalité si et seulement si F est une base de E.

• Si F est génératrice, alors p ≥ n avec égalité si et seulement si F est une base de E.

Page 8: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 8

VIIIVIII - Théorème de la base incomplèteSoit E un K-espace vectoriel de dimension finie.Pour toute famille libre L de E et toute famille génératrice G de E, il existe au moins une base B de Eobtenue en complétant L à l’aide de vecteurs de G.En particulier, pour toute famille libre L de E, il existe au moins une base B de E obtenue en complétantL à l’aide de vecteurs de E.

IXIX - Sous-espaces d’un espace vectoriel de dimension finie

1) Dimension d’un sous-espace

Théorème : soit E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E.F est de dimension finie et dimF ≤ dimE.De plus, F = E si et seulement si dimF = dimE.

Définition : on appelle rang d’une famille de vecteurs de E la dimension du sous-espace vectoriel deE engendré par cette famille.

2) Sous-espaces vectoriels supplémentaires

Caractérisation : soient F et G deux sous-espaces vectoriels non réduits à 0 d’un espace vectorielE de dimension finie. F et G sont supplémentaires dans E si et seulement s’ilsadmettent pour bases respectives deux parties complémentaires d’une base de E.

Conséquence : si E = F ⊕G , alors dimE = dimF + dimG.

Théorème : tout sous-espace vectoriel d’un espace vectoriel E de dimension finie admet au moins unsupplémentaire dans E.

Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie.

E = F ⊕G⇔ (F ∩G = 0 et dimF + dimG = dimE) .

3) Dimension d’une somme quelconque de sous-espaces

Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie

dim(F +G) = dimF + dimG− dim(F ∩G) (formule de Grassmann).

Conséquence : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie

E = F ⊕G⇔ (F +G = E et dimF + dimG = dimE) .

XX - Théorème du rang

1) Théorème d’isomorphisme

Théorème : deux espaces vectoriels E et F de dimension finie sont isomorphes si et seulement s’ils ontla même dimension.

2) Rang d’une application linéaire

Théorème du rang

Soit u ∈ L(E,F ). Si E est de dimension finie, alors Imu est de dimension finie et

dimE = dimImu+ dim Keru.

Définition : soit u ∈ L(E,F ) avec E de dimension finie. On appelle rang de u la dimension de Imu,notée rgu.

Page 9: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 9

Propriété : si E et F sont de dimension finie et si u ∈ L(E,F ), alors :u injective ⇒ dimE ≤ dimF ; u surjective ⇒ dimE ≥ dimF ;

Caractérisation des isomorphismes

Si E et F sont de même dimension finie (dimE = dimF = n) et si u ∈ L(E,F ), alors les propositionssuivantes sont équivalentes :

• u est bijective ;

• u est injective (i.e. Keru = 0) ;

• u est surjective (i.e. rg u = n) ;

• u est inversible à droite ;

• u est inversible à gauche.

Propriété : le rang d’une application linéaire est invariant par composition avec un isomorphisme.

XIXI - Opérations sur les dimensions

Théorème : soient E et F deux K-espaces vectoriels de dimension finie.

a) E × F est de dimension finie et : dimE × F = dimE + dimF .

b) L (E,F ) est de dimension finie et : dimL (E,F ) = dimE × dimF .

Dém : on considère (ej)1≤j≤p une base de E et (fi)1≤i≤n une base de F .

1) En posant v1 = (e1, 0F ) , · · · , vp = (ep, 0F ) ; vp+1 = (0E , f1) , · · · , vp+n = (0E , fn) , on vérifie que(vi)1≤i≤p+n est une base de E × F .

2) Pour tout élément (i, j) de Nn × Np , on désigne par ui,j l’unique application linéaire de E vers Ftelle que (δj,k désignant le symbole de Kronecker) :

∀k ∈ Np ui,j(ek) = δj,k.fi

On vérifie que (ui,j)1≤i≤n1≤j≤p

est une base de L (E,F ).

XIIXII - Matrices — Généralités

1) Définition - notationsSoient n et p deux entiers naturels non nuls.On appelle matrice de type (n, p) à coefficients dans K tout tableau M constitué de n lignes et p colonnesd’éléments de K. On écrit M = (ai,j)1≤i≤n

1≤j≤p, ai,j étant le terme situé à l’intersection de la ie ligne et de

la je colonne de M .Mn,p(K) désigne l’ensemble des matrices de type (n, p) à coefficients dans K.Mn(K) désigne l’ensembleMn,n(K) des matrices carrées d’ordre n à coefficients dans K.

2) Matrice d’une application linéaireSoient E et F deux K-espaces vectoriels de bases respectives B = (e1, . . . , ep) et C = (f1, . . . , fn).Pour u ∈ L(E,F ), on appelle matrice de u dans les bases B et C la matrice MB,C(u) deMn,p(K) dontles colonnes contiennent les coordonnées des vecteurs u(e1), . . . , u(ep) dans la base C de F :

MB,C(u) = (ai,j)1≤i≤n1≤j≤p

avec ∀j ∈ Np u(ej) =n∑

i=1

ai,j.fi.

NB : le nombre de lignes n est la dimension de l’espace d’arrivée ;le nombre de colonnes p est la dimension de l’espace de départ.

Pour u ∈ L(E), on appelle matrice de u dans la base B la matrice carrée MB(u) de Mp(K) dont lescolonnes contiennent les coordonnées des vecteurs u(e1), . . . , u(ep) dans la même base B de E.

Page 10: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 10

XIIIXIII - Opérations sur les matrices

1) Structure de Mn,p(K)

Soient A = (ai,j)1≤i≤n1≤j≤p

, B = (bi,j)1≤i≤n1≤j≤p

, et λ ∈ K. On pose, par définition :

A+B = (ai,j + bi,j)1≤i≤n1≤j≤p

et λ.A = (λai,j)1≤i≤n1≤j≤p

.

Théorème : (Mn,p(K),+, .) est un K-espace vectoriel de dimension np.

La base canonique deMn,p(K) est (Ei,j)1≤i≤n1≤j≤p

où Ei,j est la matrice élémentaire dont tous les termes

sont nuls, sauf celui situé à l’intersection de la ie ligne et de la je colonne, qui vaut 1 :

Eij = (δk,iδℓ,j)1≤k≤n1≤ℓ≤p

.

Avec les notations précédentes, l’application u →MB,C(u) est un isomorphisme de L (E,F ) surMn,p (K).Inversement, étant donnée A ∈ Mn,p(K), on note souvent CanA l’application linéaire de Kp dans Kn

de matrice A dans les bases canoniques.

2) Produit matriciel

Définition : soient A = (ai,j)1≤i≤m1≤j≤n

et B = (bj,k)1≤j≤n1≤k≤p

.

A×B est la matrice de type (m,p) définie par : A×B = (ci,k)1≤i≤m1≤k≤p

où :

∀(i, k) ∈ Nm ×Np ci,k =n∑

j=1

ai,jbj,k .

Propriété : si u ∈ L(E,F ) a pour matrice A dans les bases B et C, si X est la matrice colonne descoordonnées d’un vecteur x de E dans la base B, alors le produit AX est la matrice colonnedes coordonnées de u(x) dans la base C.

3) Structure de Mn(K)

(Mn(K),+, .,×) est une K-algèbre (non commutative pour n ≥ 2). Avec les notations précédentes,l’application u →MB(u) est un isomorphisme d’algèbres de L (E) surMn (K).L’élément neutre de la multiplication est la matrice identité d’ordre n : In = (δji )1≤i,j≤n .

Définition : soit A ∈Mn(K). On dit que :

• a1,1, . . . , an,n constituent la diagonale principale de A ;

• A est une matrice scalaire si et seulement si A est de la forme λ.In, λ ∈ K ;

• A est une matrice diagonale si et seulement si i = j ⇒ ai,j = 0 ;

dans ce cas on note A = diag(a1,1, . . . an,n) ;

• A est une matrice triangulaire supérieure si et seulement si i > j ⇒ ai,j = 0 ;

• A est une matrice triangulaire inférieure si et seulement si i < j ⇒ ai,j = 0.

Propriétés : les matrices scalaires forment un corps isomorphe à K.Les matrices diagonales forment une sous-algèbre commutative de (Mn(K),+, .,×).Les matrices triangulaires supérieures (resp. inférieures) forment une sous-algèbre de(Mn(K),+, .,×).

4) Matrices carrées inversiblesSoit A ∈Mn(K) ; A est inversible si et seulement si

∃A′ ∈Mn(K) A×A′ = A′ ×A = In

Soit GLn(K) l’ensemble des matrices carrées d’ordre n inversibles. (GLn(K),×) est un groupe (noncommutatif en général), isomorphe au groupe linéaire (GL(E), ) si E est un K-espace vectoriel dedimension n.

Page 11: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 11

Théorème : soit A ∈Mn(K). Les assertions suivantes sont équivalentes :

a) A est inversible.

b) ∃B ∈Mn(K) A×B = In (dans ce cas A−1 = B ).

c) ∃C ∈Mn(K) C ×A = In (dans ce cas A−1 = C ).

Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonaleprincipale sont tous non nuls.

5) Transposition

Définition : soit A = (ai,j)1≤i≤n1≤j≤p

∈ Mn,p(K). On appelle transposée de A la matrice de Mp,n(K),

notée tA, définie partA = (a′i,j)1≤i≤p

1≤j≤noù ∀(i, j) ∈ Np ×Nn a′i,j = aj,i .

Propriétés :

1) L’application Mn,p(K) → Mp,n(K)A → tA

est un isomorphisme de K-espaces vectoriels.

2) ∀(A,B) ∈Mm,n(K)×Mn,p(K)t(AB) = tB × tA.

3) Soit A ∈Mn(K). A est inversible si et seulement si tA est inversible, auquel cas (tA)−1 = t(A−1).

Définition : soit A ∈Mn(K). On dit que :

∗ A est symétrique si et seulement si tA = A

(∀(i, j) ∈ N2n ai,j = aj,i ) ;

∗ A est antisymétrique si et seulement si tA = −A

(∀(i, j) ∈ N2n ai,j = −aj,i ; en particulier ∀i ∈ Nn ai,i = 0 ).

Propriété : les matrices symétriques d’une part, antisymétriques d’autre part, forment deux sous-

espaces supplémentaires deMn (K), de dimensions respectivesn (n+ 1)

2et

n (n− 1)

2.

XIVXIV - Changements de bases

1) Matrice d’un système de vecteurs dans une baseSoit B une base d’un K-espace vectoriel E de dimension n et F = (x1, . . . , xp) une famille de vecteurs deE. On appelle matrice de F dans la base B la matrice M de type (n, p) dont la je colonne (1 ≤ j ≤ p)contient les coordonnées du vecteur xj dans la base B.

2) Matrice de passageSoient B et B′ deux bases d’un K-espace vectoriel E de dimension n. On appelle matrice de passage deB à B′ la matrice de la famille B′ dans la base B, notée PB,B′ .

NB : PB,B′ est la matrice dans la base B de l’endomorphisme de E qui transforme B en B′ ; c’est aussila matrice de IE dans les bases B′ (dans E considéré comme espace de départ) et B (dans Econsidéré comme espace d’arrivée).

Propriétés : soient B et B′ deux bases de E.

a) si X et X ′ sont les matrices colonnes des coordonnées d’un vecteur u de E dans lesbases B et B′ respectivement, on a : X = PB,B′ X

′.

b) PB,B′ est inversible et son inverse est la matrice de passage de B′ à B.

c) Si B′′ est une troisième base de E, on a : PB,B′′ = PB,B′ × PB′,B′′.

Page 12: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 12

3) Changement de bases pour une application linéaire

Théorème : soient B et B′ deux bases de E, P = PB,B′ , C et C′ deux bases de F , Q = PC,C′ etf ∈ L(E,F ). Si A est la matrice de u dans les bases B, C et A′ la matrice de u dans lesbases B′, C′, alors :

A′ = Q−1AP .

4) Changement de base pour un endomorphisme

Théorème : soient B et B′ deux bases de E, P = PB,B′ et u ∈ L(E,F ). Si A est la matrice de u dansla base B et A′ la matrice de u dans la base B′, alors :

A′ = P−1AP .

Définition : deux matrices carrées A et B d’ordre n sont semblables si et seulement si :

∃P ∈ GLn(K) B = P−1AP .

i.e. si et seulement si A et B représentent un même endomorphisme dans deux bases.

XVXV - Rang d’une matrice

Définition : soit A ∈ Mn,p(K). On appelle rang de A le rang du système de ses p vecteurs colonnesdans Kn, noté rgA.

Théorème : soient E et F deux K-espaces vectoriels de dimensions respectives p et n, rapportés auxbases B et C. Si u est une application linéaire de E dans F , de matrice A dans les basesB et C, alors :

rg u = rgA

Conséquences :

1) Soit A ∈Mn,p(K). rgA = r si et seulement si A est de la forme UJrV , où U,V sont deux matricescarrées inversibles et Jr = (αi,j) est définie par : αi,j = 1 si i = j ≤ r, αi,j = 0 sinon.

2) rg tA = rgA (le rang d’une matrice est aussi le rang du système de ses vecteurs lignes).

3) Le rang d’une matrice est inchangé lorsqu’on la multiplie par une matrice carrée inversible.

4) Une matrice carrée d’ordre n est inversible si et seulement si son rang est égal à n.

XVIXVI - Opérations élémentaires sur les matrices

1) DéfinitionsOn appelle opération élémentaire sur une matrice A deMn,p(K) :

1) l’échange de deux lignes (resp. colonnes) de A

(codage Li ↔ Lj (resp. Ci ↔ Cj)) ;

2) la multiplication d’une ligne (resp. colonne) de A par un scalaire non nul

(codage Li ← λ.Li (resp. Ci ← λ.Ci) avec λ = 0) ;

3) l’ajout à une ligne (resp. colonne) le produit d’une autre ligne (resp. colonne) de A par un scalairequelconque

(codage Li ← Li + λ.Lj (resp. Ci ← Ci + λ.Cj) avec j = i).

Page 13: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 13

2) Interprétation en termes de produit matriciel

NB : si A ∈Mn,p(K) et si Ei,j est une matrice élémentaire deMn(K), alors le produit Ei,j ×A est lamatrice deMn,p(K) dont la ie ligne est constituée par la je ligne de A et dont toutes les autreslignes sont nulles. Il en résulte les correspondances suivantes :

Opération Interprétation matricielleLi ← Li + λ.Lj A← (In + λ.Ei,j)A

Li ← λ.Li A← (In + (λ− 1).Ei,i)ALi ↔ Lj A← (In −Ei,i −Ej,j +Ei,j +Ej,i)A

.

Théorème : les opérations élémentaires sur les lignes de A transforment A en une matrice de mêmerang (on vérifie que les matrices In + λ.Ei,j (j = i), In + (λ − 1).Ei,i (λ = 0) etIn −Ei,i −Ej,j +Ei,j +Ej,i sont inversibles).

NB : les opérations sur les colonnes de A s’obtiennent par multiplication à droite par des matricescarrées d’ordre p inversibles analogues.

3) Applications

a) Calcul du rang d’une matrice

La phase de descente de l’algorithme du pivot de Gauss permet, en utilisant exclusivement des opéra-tions élémentaires sur les lignes, de transformer toute matrice A deMn,p (K) en une matrice de la formesuivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) :

Aref =

piv1 * · · · * * * · · · · · · * * * · · · *0 0 · · · 0 piv2 * · · · · · · * * * · · · *

0 0 · · · 0 0 0 · · ·. . . * * * · · · *

......

......

.... . . * * * · · · *

0 0 · · · 0 0 0 · · · · · · 0 pivr * · · · *0 0 · · · 0 0 0 · · · · · · 0 0 0 · · · 0...

......

......

......

......

0 0 · · · 0 0 0 · · · · · · 0 0 0 · · · 0

où piv1, . . . , pivr sont des scalaires non nuls, les pivots.

Le nombre r desdits pivots n’est autre que le rang de la matrice A (puisqu’elle a même rang que Aref).

b) Calcul de l’inverse d’une matrice carrée

La phase de remontée de l’algorithme du pivot de Gauss permet, toujours par des opérations élémen-taires sur les lignes, de transformer la matrice Aref précédente en une matrice de la forme suivante (enanglais reduced row echelon form, fonction rref) :

Arref =

1 * · · · * 0 * · · · · · · * 0 * · · · *0 0 · · · 0 1 * · · · · · · * 0 * · · · *

0 0 · · · 0 0 0 · · ·. . . * 0 * · · · *

......

......

.... . . * 0 * · · · *

0 0 · · · 0 0 0 · · · · · · 0 1 * · · · *0 0 · · · 0 0 0 · · · · · · 0 0 0 · · · 0...

......

......

......

......

0 0 · · · 0 0 0 · · · · · · 0 0 0 · · · 0

(on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus duditpivot, le tout “en remontant”).

La matrice initiale A est inversible si et seulement si n = p = r, auquel cas Arref n’est autre que In,ce qui fournit une méthode “pratique” de calcul de l’inverse de A lorsqu’elle existe : en effet, si je noteΩ1, . . . ,Ωk les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformerA en Arref = In, j’ai

Ωk . . .Ω1A = In d’où A−1 = Ωk . . .Ω1 = Ωk . . .Ω1In (!!)

Page 14: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 14

Il en résulte que A−1 s’obtient en faisant subir à la matrice In, successivement et dans le même ordre,les opérations élémentaires sur les lignes qui permettent de transformer A en In.

c) Résolution d’un système linéaire

Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en unsystème équivalent ayant une matrice de la forme Arref ci-dessus. Les n− r dernières lignes sont de laforme : 0 = βj (βj étant l’expression au second membre résultant des opérations sur les lignes, expression“constante”, indépendante des inconnues du système, pouvant par contre dépendre de paramètresinitialement présents dans les coefficients du système. . . ).

Ces n − r dernières lignes sont les conditions de compatibilité du système. En effet, l’ensemble S dessolutions est non vide si et seulement si les βj, j ∈ [[r + 1, n]], sont tous nuls.

Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant ausecond membres les p−r inconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires)et l’on exprime les r inconnues correspondant aux colonnes des pivots (inconnues principales) en fonc-tion des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement.Cela fournit une représentation paramétrique de l’ensemble des solutions. Noter la présence de p − rparamètres, alors que l’on savait que S (ici non vide !) était un sous-espace affine de Kp de directionKerCanA, justement de dimension p− r (cf. le théorème du rang !!).

On en déduit une “solution particulière” a et une base de KerCanA, en faisant apparaître la “solutiongénérale” comme élément d’un sous-espace affine de la forme W = a+Vect (v1, . . . , vp−r) (les coefficientsdes vecteurs v1, . . . , vp−r étant les inconnues auxiliaires). On a ainsi S ⊂W , avec S de dimension p− ret W de dimension au plus p − r : par conséquent S = W , KerCanA = Vect (v1, . . . , vp−r) et donc(v1, . . . , vp−r) est une base de KerCanA.

Exemple : appliquons la première phase de l’algorithme du pivot au système ci-dessous, les 3 paramètresx′, y′, z′ étant donnés dans R3

(S)

x + 2y − z + t = x′

3x + 6y + z − 2t = y′

5x + 10y + 3z − 5t = z′⇐⇒

x + 2y − z + t = x′

4z − 5t = y′ − 3x′

0 = z′ − 2y′ + x′

Ainsi, (S), sa matrice A =

1 2 −1 13 6 1 −25 10 3 −5

et u = CanA sont de rang 2. Il est apparu une

condition de compatibilité : l’ensemble S des solutions est non vide si et seulement si (x′, y′, z′) vérifientla relation x′−2y′+z′ = 0. Noter qu’il s’agit d’une équation cartésienne du sous-espace de R3 engendrépar les 4 vecteurs colonnes de A, ainsi que de Imu : en effet S est non vide si et seulement si l’on peutécrire (x′, y′, z′) comme combinaison linéaire des vecteurs colonnes de A, ou encore si et seulement s’ilexiste (x, y, z, t) dans R4 tel que u (x, y, z, t) = (x′, y′, z′), c’est-à-dire si et seulement si (x′, y′, z′) ∈ Imu.

Achevons la résolution dans le cas particulier (x′, y′, z′) = (1, 1, 1) (qui vérifie la condition !). Effectuonsla phase de remontée et faisons apparaître les inconnues principales et auxiliaires :

(S)⇐⇒

x + 2y −1

4t =

1

2

z −5

4t = −

1

2

⇐⇒

x =1

2− 2y +

1

4t

z = −1

2+

5

4t

Soit :

(S)⇐⇒ (x, y, z, t) =

(1

2, 0,−

1

2, 0

)+ y · (−2, 1, 0, 0) + t ·

(1

4, 0,

5

4, 1

).

Donc a =

(1

2, 0,−

1

2, 0

)est solution “particulière” et la direction de S est :

Keru = Vect

((−2, 1, 0, 0) ,

(1

4, 0,

5

4, 1

))= Vect

((−2, 1, 0, 0) , (1, 0, 5, 4)

).

Noter que Keru est aussi l’ensemble des coefficients des combinaisons linéaires nulles des vecteurscolonnes C1, C2, C3, C4 de A : en particulier

−2C1 +C2 = 0 et C1 + 5C3 + 4C4 = 0.

Page 15: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 15

d) Cas particulier des systèmes de Cramer

Un système linéaire est dit de Cramer si et seulement si r = n = p. La matrice associée est alors carréeet inversible, le système admet donc une solution unique, quel que soit le second membre.Pour la résolution pratique, l’algorithme du pivot de Gauss fonctionne évidemment.Toutefois, si le système (avec la même matrice A inversible) doit être résolu avec divers second membres,il pourra être plus judicieux de déterminer une fois pour toute A−1, la résolution du système pour chaquesecond membre Y se réduisant alors au calcul direct du produit A−1Y .

XVIIXVII - Déterminants

1) Groupe symétrique

a) Définitions — Notations

On note, pour n ∈ N, n ≥ 2, Nn l’ensemble [[1, n]] et Sn l’ensemble des bijections de Nn dans lui-même,appelées permutations de Nn.

• (Sn, ) est un groupe, non commutatif dès que n est au moins égal à 3, dit groupe symétrique deNn ; son cardinal est n!.

• Un élément σ de Sn est parfois noté : σ =

(1 2 3 · · · n

σ (1) σ (2) σ (3) · · · σ (n)

).

• La loi est souvent notée multiplicativement, étant remplacé par un point, voire par rien.

• On appelle cycle tout élément γ de Sn pour lequel il existe ℓ dans N, ℓ ≥ 2, et ℓ éléments distinctsa1, . . . , aℓ de Nn tels que γ soit défini par :

∀i ∈ Nℓ−1 γ (ai) = ai+1 , γ (aℓ) = a1 , ∀x ∈ Nn\ a1, . . . , aℓ γ (x) = x

(i.e. γ opère une “permutation circulaire” sur a1, . . . , aℓ et laisse fixes les autres éléments de Nn).

ℓ est la longueur du cycle γ, l’ensemble a1, . . . , aℓ est le support de γ ; on note γ =(a1 a2 . . . aℓ

)

(sans virgules).

• On appelle transposition tout cycle de longueur 2 : τ = (a b) échange a et b et laisse fixes les autreséléments de Nn.

Attention ! les transpositions (a b) et (b a) sont égales, mais, si a, b, c sont distincts dans Nn, les cyclesde longueur 3 (a b c) et (a c b) sont différents, bien qu’ayant même support. Par contre,(a b c) = (b c a) = (c a b).

NB : Pour a, b, c distincts dans Nn, on vérifie facilement que (a b) (b c) = (a b c). On en déduit que(b c) (a b) = (c b) (b a) = (c b a), d’où la non commutativité de Sn pour n ≥ 3 . . .

Propriété : si γ est un cycle de longueur ℓ, alors γℓ = INn (et ℓ est le plus petit des entiers naturelsnon nuls k tels que γk = INn).Si τ est une transposition, τ−1 = τ (τ est une involution).

Attention ! Une puissance d’un cycle n’est pas nécessairement un cycle : (1 2 3 4)2 = (1 3) (2 4) . . .

b) Décomposition en produit de transpositions

Théorème : toute permutation σ, élément de Sn, peut s’écrire comme produit (i.e. comme composée)de transpositions.

Exemple : soit σ le cycle (1 2 3 4) dans S4 ; j’applique l’algorithme fourni par la démonstration parrécurrence du théorème précédent, qui conduit à poser successivement :

σ1 = (1 4)σ =

(1 2 3 42 3 1 4

); σ2 = (1 3)σ1 =

(1 2 3 42 1 3 4

)= (1 2) ;

finalement : σ = (1 4) (1 3) (1 2).

Page 16: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 16

Attention ! Il n’y a pas unicité de cette décomposition en produit de transpositions : on peut allongerarbitrairement ce type de produit en ajoutant des facteurs de la forme ττ ; il peut y avoiraussi des égalités moins triviales : voir par exemple, pour le cycle ci-dessus,

(1 2 3 4) = (1 4) (1 3) (1 2) = (1 2) (2 3) (3 4) .

c) Signature d’une permutation

Définition : soit σ ∈ Sn ; on dit que le couple (i, j) de N2n est une inversion pour σ si et seulement si

i < j et σ (i) > σ (j) .

On note Inv (σ) le nombre d’inversions pour σ.La signature de σ est ε (σ) = (−1)Inv(σ) (ε (σ) ∈ −1, 1).Les permutations de signature 1 sont dites permutations paires,les permutations de signature −1 sont dites permutations impaires.

Calcul pratique : σ étant donnée par les deux lignes habituelles contenant i et σ (i), j’ajoute unetroisième ligne où j’indique, pour chaque valeur de i, le nombre Ni d’entiers j de Nn tels que (i, j) soitune inversion pour σ. Inv (σ) étant la somme des Ni, j’en déduis ε (σ).

Exemple : σ =

(1 2 3 4 5 6 76 3 1 5 2 7 4

)← i← σ (i)

5 2 0 2 0 1 0 ← Ni

; Inv (σ) = 10 ; ε (σ) = 1.

Propriété : ε (INn) = 1 ; pour toute transposition τ , ε (τ) = −1.

Théorème fondamental : l’application ε : Sn → −1, 1σ → ε (σ)

est un morphisme de groupes de

(Sn, ) dans (−1, 1 ,×). En particulier,

∀(σ, σ′

)∈ S2n ε

(σσ′)= ε (σ) ε

(σ′).

Conséquences : 1) Si σ s’écrit comme produit de k transpositions, alors ε (σ) = (−1)k ;2) Les permutations paires forment un sous-groupe An de (Sn, ), appelégroupe alterné.3) Pour n ≥ 2, soit τ une transposition de Sn ; l’application σ → τσ est uneinvolution de Sn qui échange An et Sn\An, donc tous deux de cardinal n!/2.

2) Applications multilinéaires

a) Notion d’application p -linéaire

Soient E, F deux K-espaces vectoriels, p ∈ N, p ≥ 2 et f une application de Ep dans F .f est p -linéaire sur E si et seulement si, pour tout j de Np et tout (x1, . . . , xj−1, xj+1, . . . , xp) fixé dansEp−1, la j-ième application partielle, de E dans F , qui à x associe f (x1, . . . , xj−1, x, xj+1, . . . , xp) , estlinéaire (on dit que f est linéaire par rapport à chacune des p variables).Pour p = 2, on dit bilinéaire.Les formes p -linéaires sur E sont les applications p -linéaires de Ep dans K.

Exemples : dans un R-espace vectoriel euclidien orienté de dimension 3, les applications (;u,;v) → ;u.;vet (;u,;v) → ;u ∧ ;v sont bilinéaires, l’application (;u,;v, ;w) → [;u,;v, ;w] = (;u ∧ ;v) . ;w (produitmixte) est une forme 3 -linéaire.

Propriétés : 1) L’ensemble des formes p -linéaires sur E est un K-espace vectoriel.2) Si f est p -linéaire et si l’un des vecteurs xj est nul, alors f (x1, . . . , xp) = 0.

b) Applications p -linéaires symétriques, antisymétriques et alternées

Soient f p -linéaire sur E et σ ∈ Sp ; on note σ · f l’application p -linéaire sur E définie par

∀ (x1, . . . , xp) ∈ Ep (σ · f) (x1, . . . , xp) = f(xσ(1), . . . , xσ(p)

).

Page 17: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 17

Définition : une application f p -linéaire sur E est dite :

∗ symétrique si et seulement si : ∀σ ∈ Sp σ · f = f ;

∗ antisymétrique si et seulement si : ∀σ ∈ Sp σ · f = ε (σ) .f ;

∗ alternée si et seulement si f (x1, . . . , xp) est nul dès que deux des xj sont égaux, c’est-à-dire si et seulement si :

∀ (x1, . . . , xp) ∈ Ep(∃ (i, j) ∈ N2p i = j et xi = xj

)⇒ f (x1, . . . , xp) = 0 .

Caractérisation à l’aide des transpositions : soit f p -linéaire sur E ;

• f est symétrique si et seulement si, pour toute transposition τ de Sp, τ · f = f ;

• f est antisymétrique si et seulement si, pour toute transposition τ de Sp, τ · f = −f .

Théorème : soit f p -linéaire sur E ; f est alternée si et seulement si f est antisymétrique.

Idée de la dém. Si f est antisymétrique et (x1, . . . , xp) tel que xi = xj, utiliser τ · f avec τ = (i j).Réciproquement, si f est alternée, considérer une transposition τ = (i j) (i < j) et montrer que τ · f =−f en développant par multilinéarité l’expression :

f (x1, . . . , xi−1, xi + xj, xi+1, . . . , xj−1, xi + xj , xj+1, . . . , xp)

Propriétés : 1) L’ensemble Ap (E) des formes p -linéaires alternées sur E est un K-espace vectoriel.2) Soient f ∈ Ap (E) et (x1, . . . , xp) ∈ Ep; on ne modifie pas f (x1, . . . , xp) en ajoutantà l’un des xj une combinaison linéaire des autres. En particulier, si (x1, . . . , xp) est liée,alors f (x1, . . . , xp) = 0.

Attention ! Si l’on multiplie l’un des xj par un scalaire λ, f (x1, . . . , xp) est multiplié par λ ;Si l’on multiplie tous les xj par un scalaire λ, f (x1, . . . , xp) est multiplié par λp :

f (λx1, . . . , λxp) = λpf (x1, . . . , xp) .

Symétrisée, antisymétrisée : si f est p -linéaire sur E, alors S (f) =∑

σ∈Sp

σ · f est p -linéaire symétrique

et A (f) =∑

σ∈Sp

ε (σ) . (σ · f) est p -linéaire antisymétrique.

Idée de la dém. (non exigible) choisir une transposition τ et constater que :

τ · S (f) =∑

σ∈Sp

τ · (σ · f) =∑

σ∈Sp

(τσ) · f = S (f) ,

en réindexant, grâce à l’involution de Sp définie par σ → τσ. De même,

τ ·A (f) =∑

σ∈Sp

ε (σ) .(τ · (σ · f)

)= −

σ∈Sp

ε (τσ) .((τσ) · f

)= −A (f) .

3) Déterminants

a) Déterminant d’un système de vecteurs dans une base

Soient E un K-espace vectoriel de dimension n, B = (e1, . . . , en) une base de E ; l’application

f : En → K

(x1, . . . , xn) →n∏

i=1

ai,i si ∀j ∈ Nn xj =n∑

i=1

ai,j .ei

est une forme n-linéaire sur E. D’après le paragraphe précédent, in fine, l’application

detB : En → K

(x1, . . . , xn) →∑

σ∈Sn

ε (σ)n∏

i=1

ai,σ(i) si ∀j ∈ Nn xj =n∑

i=1

ai,j.ei

est une forme n-linéaire alternée sur E, appelée déterminant dans la base B. En outre detB B = 1.

Page 18: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 18

Théorème fondamental

Si E est un K-espace vectoriel de dimension n, l’espace An (E) des formes n-linéaires alternées sur Eest une droite vectorielle.Pour toute base B = (e1, . . . , en) de E, detB est l’unique forme n-linéaire alternée prenant la valeur 1en B et

∀f ∈ An (E) f = λ. detB où λ = f (B) = f (e1, . . . , en) .

En outre, si ∀j ∈ Nn xj =n∑

i=1

ai,j .ei,

alors le déterminant dans la base B du système de vecteurs (x1, . . . , xn) est

detB (x1, . . . , xn) =∑

σ∈Sn

ε (σ)n∏

i=1

ai,σ(i) =∑

σ∈Sn

ε (σ)n∏

j=1

aσ(j),j

(le nombre de vecteurs est égal à la dimension de l’espace).

NB : on obtient directement l’égalité de ces deux sommes par réindexation,en remplaçant σ par σ−1 . . .

Caractérisation des bases

Soient E un K-espace vectoriel de dimension n, B = (e1, . . . , en) une base de E et (x1, . . . , xn) unsystème de n vecteurs de E.

• (x1, . . . , xn) est une base de E si et seulement si detB (x1, . . . , xn) = 0 ;

• (x1, . . . , xn) est une famille liée si et seulement si detB (x1, . . . , xn) = 0.

b) Déterminant d’un endomorphisme

Théorème et définition :

Soient E un K-espace vectoriel de dimension n, u ∈ L (E) ; il existe un unique scalaire, noté detu,appelé déterminant de u, tel que :

∀f ∈ An (E) ∀ (x1, . . . , xn) ∈ En f(u (x1) , . . . , u (xn)

)= (detu) · f (x1, . . . , xn) .

En outre, pour toute base B = (e1, . . . , en) de E : detu = detB(u (e1) , . . . , u (en)

).

Propriétés : soit E un K-espace vectoriel de dimension n.

1) det IE = 1.

2) ∀λ ∈ K ∀u ∈ L (E) det (λ · u) = λn · detu.

3) ∀ (u, v) ∈ L (E)2 det (u v) = (detu) · (det v).

4) Un endomorphisme u de E est un automorphisme si et seulement si detu = 0, auquel cas

detu−1 =1

detu.

Attention ! Rien pour det (u+ v) . . .

Exemple : pour σ ∈ Sn et B =(e1, . . . , en) base de E, soit u l’endomorphisme de E défini par

∀j ∈ Nn u (ej) = eσ(j)

detB étant une forme n-linéaire antisymétrique, il vient :

detu = detB(u (e1) , . . . , u (en)

)= detB

(eσ(1), . . . , eσ(n)

)= ε (σ) · detB B = ε (σ) .

Page 19: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 19

c) Déterminant d’une matrice carrée

Définition : soitM = (ai,j) ∈Mn (K), on appelle déterminant de M , noté detM ou

∣∣∣∣∣∣∣

a1,1 . . . a1,n...

...an,1 . . . an,n

∣∣∣∣∣∣∣,

le déterminant du système des vecteurs colonnes de M dans la base canonique de Kn:

detM =∑

σ∈Sn

ε (σ)n∏

i=1

ai,σ(i) =∑

σ∈Sn

ε (σ)n∏

j=1

aσ(j),j .

Remarque fondamentale

Soit u ∈ L (E), detu est égal au déterminant de la matrice de u dans toute base de E.

Propriétés

1) det In = 1.

2) ∀λ ∈ K ∀M ∈Mn (K) det (λ ·M) = λn · detM .

3) ∀ (M,N) ∈Mn (K)2 det (M ×N) = (detM) · (detN).

4) M ∈Mn (K) est inversible si et seulement si detM = 0, auquel cas detM−1 =1

detM.

5) ∀M ∈Mn (K) det tM = detM .

6) detM est aussi le déterminant du système des vecteurs lignes de M dans la base canonique de Kn.

4) Calcul des déterminants

a) Déterminant d’une matrice triangulaire par blocs

Propriété : le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux.

Théorème : le déterminant d’une matrice triangulaire par blocs est le produit des déterminants desblocs diagonaux.

NB : la “phase de descente” de l’algorithme du pivot de Gauss permet de se ramener à une matricetriangulaire pour calculer un déterminant d’ordre n au prix d’un nombre d’opérations de l’ordrede n2.

b) Développement d’un déterminant

Définition : soit M = (ai,j) ∈Mn (K) ; pour tout couple (i, j) dans N2n,le cofacteur de l’élément d’indice (i, j) dans M est le scalaire

Ai,j = (−1)i+j detMi,j

où Mi,j est la matrice deMn−1 (K) obtenue à partir de Men supprimant la ligne i et la colonne j.

Théorème : soit M = (ai,j) ∈Mn (K) ; on a :

1) développement par rapport à la colonne j : pour j fixé dans Nn,

detM =n∑

i=1

ai,j Ai,j

2) développement par rapport à la ligne i : pour i fixé dans Nn,

detM =n∑

j=1

ai,j Ai,j

Page 20: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 20

5) Applications des déterminants

a) Comatrice — Inversion des matrices carrées

Théorème et définition : soit M ∈ Mn (K) ; on appelle comatrice de M la matrice des cofacteursdes éléments de M :

ComM = (Ai,j)1≤i,j≤n .

On a alors les relations :

M × t (ComM) = t (ComM)×M = (detM) .In

donc, si detM = 0 :

M−1 =1

detM· t (ComM) .

Exemple : si ad− bc = 0,(

a cb d

)−1=

1

ad− bc·

(d −c−b a

)(en effet Com

(a cb d

)=

(d −b−c a

)).

b) Formules de Cramer

Soit (S) : MX = B un système de Cramer, avec M ∈ GLn (K) , X =

x1...xn

et B =

b1...bn

.

La solution de (S) est donnée par :

∀j ∈ Nn xj =detMj

detM

où Mj ∈Mn (K) est obtenue à partir de M en remplaçant la colonne j par le second membre B.

Exemple : si ab′ − ba′ = 0, la solution du système

ax+ by = ca′x+ b′y = c′

est donnée par :

x =

∣∣∣∣c bc′ b′

∣∣∣∣

∣∣∣∣a ba′ b′

∣∣∣∣

=cb′ − bc′

ab′ − ba′et y =

∣∣∣∣a ca′ c′

∣∣∣∣

∣∣∣∣a ba′ b′

∣∣∣∣

=ac′ − ca′

ab′ − ba′.

c) Orientation d’un R-espace vectoriel

Théorème et définition : soit E un R-espace vectoriel de dimension n ≥ 1 ; deux bases B et B′ deE sont dites de même orientation si et seulement si la matrice de passagePB,B′ a un déterminant strictement positif.En regroupant les bases de E selon leur orientation, on obtient une parti-tion de l’ensemble des bases de E en exactement deux classes.Orienter E, c’est choisir l’une de ces deux classes, dont les éléments sontappelés bases directes, les autres étant les bases rétrogrades (ou indirectes).

Propriétés : 1) Soit σ ∈ Sn ; les bases (e1, . . . , en) et(eσ(1), . . . , eσ(n)

)sont de même orientation si et

seulement si σ est une permutation paire.

2) Soit u ∈ GL (E) ; les bases (e1, . . . , en) et(u (e1) , . . . , u (en)

)sont de même orientation

si et seulement si detu > 0.

d) Applications à la géométrie affine

Penser à écrire un déterminant pour obtenir une équation cartésienne d’un hyperplan donné par unpoint et une base de la direction :

• en dimension 2, M ∈ A+Vect (;u)⇔ detB(−−→AM,;u

)= 0

• en dimension 3, M ∈ A+Vect (;u,;v)⇔ detB(−−→AM,;u,;v

)= 0

Page 21: AlgèbrelinéairedeMPSImichel.stainer.pagesperso-orange.fr/MP/Cours/MPSI... · OnditqueF estunsous-espace vectoriel deE sietseulementsilarestriction de la loi + à F ×F et la restriction

Algèbre linéaire de MPSI Page 21

e) Applications à la géométrie euclidienne

Produit mixte de n vecteurs en dimension n

Soit E un espace vectoriel euclidien orienté de dimension n. La matrice de passage entre deux basesorthonormales directes de E a pour déterminant +1. Par conséquent, le déterminant d’un système(;u1, . . . , ;un) de n vecteurs de E dans une base orthonormale directe de E est indépendant du choix decette base orthonormale directe.Il est appelé produit mixte de (;u1, . . . , ;un), noté

[;u1, . . . , ;un

](ou encore Det (;u1, . . . , ;un), par exemple

dans le programme officiel. . . ).

Produit vectoriel de deux vecteurs en dimension 3

Soit E un espace vectoriel euclidien orienté de dimension 3. Etant donnés deux vecteurs ;a et ;b de E, leproduit vectoriel ;a ∧;b est l’unique vecteur de E tel que

∀;u ∈ E[;a,;b, ;u

]=(;a ∧;b

)· ;u ( · étant le symbole du produit scalaire)

(cette définition intrinsèque, justifiée par l’isomorphisme canonique entre E et son dual, ;u →[;a,;b, ;u

]

étant une forme linéaire sur E, redonne bien sûr les coordonnées de ;a ∧;b dans n’importe quelle baseorthonormale directe, en fonction de celles de ;a et ;b . . . ).

Calculs d’airesDans un plan euclidien orienté,

∣∣∣[−−→AB,−→AC

] ∣∣∣ donne l’aire du parallélogramme ABDC (où D = C+−−→AB)

et1

2·∣∣∣[−−→AB,−→AC

] ∣∣∣ donne l’aire du triangle ABC.

Calculs de volumes

Dans un espace euclidien orienté de dimension 3,∣∣∣[−−→AB,−→AC,−−→AD

] ∣∣∣ donne le volume du parallélépipède

construit sur−−→AB,−→AC,−−→AD et

1

6·∣∣∣[−−→AB,−→AC,−−→AD

] ∣∣∣ donne le volume du tétraèdre ABCD.