46 CHAPITRE 3. PROBABILITÉS4.4 Fonction d’une variable aléatoire réelle continueIl arrive souvent dans la pratique que l’on connaisse la distribution d’une variable aléatoire X mais que l’ons’intéresse plutôt à celle d’une fonction de c<strong>et</strong>te variable aléatoire. En d’autres termes on connaît X mais on désireconnaître g(X).Exemple 4.4.1. Soit X une variable uniformément distribuée sur [0, 1]. On obtiendra la distribution de Y = X 2de la manière suivante :DoncF Y (y) = P (Y ≤ y) y ≥ 0= P (X 2 ≤ y)= P (X ≤ √ y)= F X ( √ y) = √ y si y ∈ [0, 1]f Y (y) = F ′ Y (y) =f Y (y) = 0 sinon12 √ si y ∈ [0, 1]yThéorème 4.4.2. Soit X une variable aléatoire réelle continue de densité f X <strong>et</strong> soit g une fonction strictementmonotone (croissante ou décroissante) <strong>et</strong> dérivable de R dans R. La densité de probabilité de la variable aléatoireY = g(X) est alors :f Y (y) ={fX (g −1 (y)) ddy g−1 (y) si il existe un x pour lequel y = g(x)0 si g(x) ≠ y pour tout xDémonstrationCela provient du théorème de changement de variable dans une intégrale. ✷Application 4.4.3. Soit X une variable aléatoire réelle de loi normale de paramètre µ <strong>et</strong> σ, c’est-à-dire que X apour fonction de densitéf(u) = √ 1 e −(x−µ)2 /(2σ 2 )2πσ<strong>et</strong> soitalorsPar suiteg(x) = x − µσ<strong>et</strong> Y = g(X)g(x) = y ⇐⇒ y = x − µσ⇐⇒ x = σy + µ = g −1 (y)f Y (y) = f X (σy + µ)σ = 1 √2πe −y2 /2<strong>et</strong> donc Y suit une lois normale réduite (i.e. de paramètres 0 <strong>et</strong> 1). Par conséquent nous avons :F X (a) ==∫ a−∞∫ a−µσ−∞f X (x)dx = P (X ≤ a)= P (σY + µ ≤ a)= F Y ( a − µσ )f Y (y)dy = P (Y ≤ a − µσ )En conclusion si on connaît la fonction de répartition de loi normale réduite on peut calculer la fonction derépartition de toutes les lois normales.
4. VARIABLES ALÉATOIRES 474.5 Variables aléatoires vectoriellesDans les applications pratiques on rencontre souvent des problèmes dans lesquels les résultats des expériencesse trouvent décrits non pas par une variable aléatoire mais par deux ou plusieurs variables aléatoires. Par exemplelorsque l’on j<strong>et</strong>te 3 dés le résultat est donné par 3 nombres, ou lorsque l’on désire étudier simultanément le rendementd’une variété de blé <strong>et</strong> les précipitations de mars à juin.Comme pour les variables aléatoires réelles nous allons tout d’abord étudier les variables aléatoires discrètes,puis les variables aléatoires réelles continues. Nous étudierons tout d’abord le cas de deux variables aléatoires, puisnous généraliserons.Définition 4.5.1 (Vecteur aléatoire). On appelle vecteur aléatoire de dimension n tout n-upl<strong>et</strong>(X 1 , . . . , X n ) de n variables aléatoires définies sur le même espace (Ω, E).Notation 4.5.2. Lorsque n = 2 on parle de couple de variables aléatoires <strong>et</strong> on note (X, Y ).Définition 4.5.3 (Fonction de probabilité jointe). Soient X <strong>et</strong> Y 2 variables aléatoires discrètes à valeur respectivementdans E <strong>et</strong> F . On appelle fonction de probabilité jointe de X <strong>et</strong> de Y la fonction p définissant la loi deprobabilité du couple de variables aléatoires (X, Y ) suivante.p : E × F −→ R(x, y) ↦−→ p(x, y) = P (X = x <strong>et</strong>Y = y)Remarque 4.5.4. Soit p la fonction de probabilité jointe de X <strong>et</strong> de Y alors :(i) p(x, y) ≥ 0 ∀(x, y) ∈ E × F(ii)∑ ∑p(x, y) = 1x∈E y∈YDéfinition 4.5.5 (Loi marginale). Soient X <strong>et</strong> Y 2 variables aléatoires discrètes à valeurs dans E <strong>et</strong> F <strong>et</strong> pla fonction de probabilité jointe de X <strong>et</strong> Y . On appelle loi de probabilité marginale de X (respectivement Y )l’applicationp X : E −→ Rx ↦−→ p X (x) = ∑ y∈Fp(x, y)respectivementp Y : F −→ Ry ↦−→ p Y (y) = ∑ x∈Ep(x, y)Remarque 4.5.6. p X (respectivement p Y ) est la loi de probabilité de la variable aléatoire X (respectivement Y )Remarque 4.5.7. Lorsque E <strong>et</strong> F sont finis, E = {x 1 , . . . , x n } <strong>et</strong> F = {y 1 , . . . , y m } on représente p(x, y) de lafaçon suivante :y 1 y 2 · · · y j · · · y m p Xx 1 p(x 1 , y 1 ) p(x 1 , y 2 ) · · · p(x 1 , y j ) · · · p(x 1 , y m ) p X (x 1 )x 2 p(x 2 , y 1 ) p(x 2 , y 2 ) · · · p(x 2 , y j ) · · · p(x 2 , y m ) p X (x 2 ). . ... .x i p(x i , y 1 ) p(x i , y 2 ) · · · p(x i , y j ) · · · p(x i , y m ) p X (x i ). . ... .x n p(x n , y 1 ) p(x n , y 2 ) · · · p(x n , y j ) · · · p(x n , y m ) p X (x n )p Y p Y (y 1 ) p Y (y 2 ) · · · p Y (y i ) · · · p Y (y m ) 1Exemple 4.5.8. On lance deux dés à jouer <strong>et</strong> on s’intéresse à la somme des résultats obtenus (variable U) <strong>et</strong> aumaximum des résultats des deux dés (variable V ). Nous avons alors :