Sommes de variables aléatoires

Sommes de variables aléatoires

Introduction :

Dans la première partie de ce cours, nous allons voir quelques définitions et propriétés importantes sur la transformation de variables aléatoires, après avoir fait quelques rappels de première.
Rappelons-nous que nous avons étudié, dans le cours précédent, la loi de probabilité associé à un schéma de Bernoulli, à savoir la loi binomiale. Nous allons voir comment calculer l’espérance, la variance et l’écart-type de la loi binomiale, grâce à des outils très puissants donnés par la linéarité de l’espérance et l’additivité de la variance (dans le cas des variables aléatoires indépendantes). Ceci sera l’objet de la deuxième partie.
Enfin, toujours grâce à ces mêmes outils, nous établirons plus généralement l’expression de l’espérance, de la variance et de l’écart-type de la somme et de la moyenne d’un échantillon de taille nn d’une loi de probabilité.

  • Dans tout ce cours, Ω\Omega désigne l’univers associé à une expérience aléatoire et pp une probabilité sur Ω\Omega.

Transformation de variables aléatoires

Nous allons tout d’abord faire quelques rappels de ce que nous avons appris sur les variables aléatoires.

Rappels

Commençons par redonner la définition d’une variable aléatoire.

bannière definition

Définition

Variable aléatoire :

Une variable aléatoire réelle définie sur l’univers Ω\Omega est une fonction, notée XX, qui associe un réel à chaque éventualité de l’univers Ω\Omega. On a donc :

Xnbsp;:ΩRωX(ω)\begin{aligned} X : \Omega &\to \mathbb R \ \omega &\mapsto X(\omega) \end{aligned}

À une variable aléatoire, nous pouvons associer sa loi de probabilité.

bannière definition

Définition

Loi de probabilité d’une variable aléatoire :

Soit XX une variable aléatoire discrète sur Ω\Omega qui prend les valeurs x1x1, x2x2, …, xnxn.
Définir la loi de probabilité de XX, c’est donner les valeurs de probabilités p(X=xi)p(X=x
i) pour tout entier ii, avec 1in1\leq i\leq n.

Nous pouvons maintenant redonner la définition de l’espérance d’une variable aléatoire.

bannière definition

Définition

Espérance d’une variable aléatoire :

Soit XX une variable aléatoire discrète sur Ω\Omega qui prend les valeurs x1x1, x2x2, …, xnxn. On note pipi la valeur de la probabilité p(X=xi)p(X=x_i) pour tout 1in1\leq i \leq n.
On appelle espérance de XX le nombre réel, noté E(X)E(X), défini par :

E(X)=x1×p1+x2×p2++xn×pn=i=1nxipi\begin{aligned} E(X)&=x1\times p1+x2\times p2+…+xn\times pn \ &= \sum{i=1}^{n}xip_i \end{aligned}

Nous pouvons aussi rappeler les définitions de la variance et de l’écart-type d’une variable aléatoire.

bannière definition

Définition

Variance et écart-type d’une variable aléatoire :

La variance de la variable aléatoire XX est le réel positif, noté V(X)V(X), défini par :

V(X)=p1×(x1E(X))2+p2×(x2E(X))2++pn×(xnE(X))2=i=1npi(xiE(X))2\begin{aligned} V(X)&=p1\times \big(x1-E(X)\big)^2+p2\times \big(x2-E(X)\big)^2+… \ &\quad\quad\quad\quad+pn\times \big(xn-E(X)\big)^2 \ &= \sum{i=1}^n pi\big(x_i-E(X)\big)^2 \end{aligned}

  • L’écart-type de la variable aléatoire XX est le réel positif, noté σ(X)\sigma(X), défini par :

σ(X)=V(X)\sigma(X)=\sqrt{V(X)}

Prenons un exemple pour bien revoir ces notions, en considérant le petit jeu suivant.

bannière exemple

Exemple

On lance une pièce de monnaie parfaitement équilibrée. On gagne 5 euros5\ \text{euros} si on obtient pile et on perd 3 euros3\ \text{euros} si on obtient face.

  • Si XX est la variable aléatoire correspondant au gain algébrique obtenu, alors l’ensemble des valeurs prises par XX est {3,5}\lbrace-3,\,5\rbrace.
  • Nous pouvons donner la loi de probabilité de XX, sous la forme d’un tableau :

xixi 3-3 55
p(X=xi)p(X=xi) 12\dfrac 12 12\dfrac 12
  • Nous calculons maintenant l’espérance de XX :

E(X)=3×p(X=3)+5×p(X=5)=3×12+5×12=1\begin{aligned} E(X)&= -3\times p(X=-3)+5\times p(X=5) \ &=-3\times \dfrac 12+5\times \dfrac 12 \ &=1 \end{aligned}

  • On interprète ce résultat (E(X)=1E(X)=1) comme le gain moyen que peut espérer un joueur sur un très grand nombre de parties.
  • Enfin, calculons la variance de XX :

V(X)=12×(31)2+12×(51)2=12×16+12×16=16\begin{aligned} V(X)&= \dfrac 12\times (-3-1)^2+\dfrac 12\times (5-1)^2\ &=\dfrac 12\times 16+\dfrac 12\times 16 \ &=16 \end{aligned}

  • Nous pouvons donner aussi l’écart-type :

σ(X)=V(X)=4\begin{aligned} \sigma(X)&=\sqrt{V(X)} \ &=4 \end{aligned}

Variables aléatoires indépendantes

Comme nous l’avons fait pour les événements ou les épreuves, nous allons ici définir l’indépendance de 22 variables aléatoires indépendantes.

bannière definition

Définition

Indépendance de 22 variables aléatoires :

Prenons deux variables aléatoires XX et YY respectivement définies sur les univers Ω1\Omega1 et Ω2\Omega2.
XX et YY sont dites indépendantes si tout événement lié à la variable aléatoire XX est indépendant de tout événement lié à la variable aléatoire YY.

  • C’est-à-dire si, pour tout xX(Ω1)x\in X(\Omega1) et pour tout yY(Ω2)y\in Y(\Omega2) :

p((X=x)(Y=y))=p(X=x)×p(Y=y)p\big((X=x)\cap (Y=y)\big)=p(X=x)\times p(Y=y)

Nous pouvons généraliser cette notion d’indépendance à nn variables aléatoires.

bannière à retenir

À retenir

Prenons nn variables aléatoires X1X1, …, XnXn respectivement définies sur les univers Ω1\Omega1, …, Ωn\Omegan.
Elles sont dites mutuellement indépendantes (ou indépendantes) si, pour tous x1X1(Ω1)x1\in X1(\Omega1), …, xnXn(Ωn)xn\in Xn(\Omegan) :

p((X1=x1)(Xn=xn))=p(X1=x1)××p(Xn=xn)p\big((X1=x1)\cap…\cap (Xn=xn)\big)=p(X1=x1) \times …\times p(Xn=xn)

bannière attention

Attention

Les variables aléatoires deux à deux indépendantes ne sont pas nécessairement mutuellement indépendantes.

Transformation affine

Nous avons rappelé plus haut les formules pour calculer l’espérance et la variance d’une variable aléatoire. Ces formules peuvent entraîner des calculs assez lourds. Nous allons voir dans ce paragraphe des propriétés qui vont nous permettre d’alléger ces calculs.

bannière definition

Définition

Transformation affine d’une variable aléatoire :

Soit XX une variable aléatoire définie sur un univers Ω\Omega, qui prend les valeurs x1x1, x2x2, …, xnxn. Et soit aa et bb deux réels.
La variable aléatoire YY définie par Y=aX+bY=aX+b est aussi une variable aléatoire, qui prend, pour tout ii allant de 11 à nn, les valeurs yi=axi+by
i=ax_i+b.

Et nous avons alors les propriétés suivantes.

bannière propriete

Propriété

Soit XX une variable aléatoire.
Soit YY une variable aléatoire définie par Y=aX+bY=aX+b, avec aa et bb deux réels.
Nous avons alors :

  • E(Y)=aE(X)+bE(Y)=aE(X)+b,
  • c’est la linéarité de l’espérance ;
  • V(Y)=a2V(X)V(Y)=a^2 V(X).

Nous allons maintenant voir un exemple qui va donner une méthodologie pour simplifier les calculs de l’espérance et de la variance d’une variable aléatoire.

bannière exemple

Exemple

Une entreprise produit des vis. Un de ses modèles doit avoir pour pas de vis une distance théorique de 0,45 mm0,45\ \text{mm} (c’est-à-dire que, pour chaque tour, la vis avancera, ou reculera, de 0,45 mm0,45\ \text{mm}).
Une vis est régulièrement tirée, au hasard, de la production, afin de mesurer le pas de vis. À cause des erreurs de mesure, ces distances peuvent légèrement varier.

Nous considérons la variable aléatoire XX qui associe, à toute vis extraite, la mesure de son pas de vis, dont la loi de probabilité est donnée dans ce tableau :

xixi 0,4480,448 0,4490,449 0,4500,450 0,4510,451 0,4520,452
p(X=xi)p(X=xi) 0,10,1 0,20,2 0,20,2 0,30,3 0,20,2
  • Nous allons calculer l’espérance et la variance de XX.
  • Définition de la variable YY

Au vu des valeurs données par la loi de probabilité, nous nous rendons vite compte que les calculs de l’espérance et de la variance vont être assez lourds. Nous allons donc introduire une nouvelle variable aléatoire. Nous cherchons donc :

  • à travailler avec des valeurs entières,
  • nous multiplions XX par 10001\,000 ;
  • à avoir une valeur centrale nulle,
  • nous soustrayons 450450 à 1000X1\,000X.

Nous définissons ainsi la variable aléatoire Y=1000X450Y=1\,000X-450.

  • Loi de probabilité de YY

Nous pouvons maintenant donner la loi de probabilité de YY, avec, pour tout ii compris entre 11 et 55, yi=1000xi450yi=1\,000xi-450 (les probabilités ne changent évidemment pas) :

yiyi 2-2 1-1 00 11 22
p(Y=yi)p(Y=yi) 0,10,1 0,20,2 0,20,2 0,30,3 0,20,2
  • Espérance de YY

E(Y)=2×0,1+(1)×0,2+0×0,2+1×0,3+2×0,2=0,20,2+0,3+0,4=0,3\begin{aligned} E(Y)&=-2\times 0,1+(-1)\times 0,2+0\times 0,2 \ &\quad\quad\quad\quad+1\times 0,3+2\times 0,2 \ &=-0,2-0,2+0,3+0,4 \ &=0,3 \end{aligned}

  • Variance de YY

V(Y)=0,1×(20,3)2+0,2×(10,3)2+0,2×(00,3)2+0,3×(10,3)2+0,2×(20,3)2=0,1×5,29+0,2×1,69+0,2×0,09+0,3×0,49+0,2×2,89=1,61\begin{aligned} V(Y)&=0,1\times (-2-0,3)^2+0,2\times (-1-0,3)^2+0,2\times (0-0,3)^2 \ &\quad\quad\quad\quad+0,3\times (1-0,3)^2+0,2\times (2-0,3)^2 \ &=0,1\times 5,29+0,2\times 1,69+0,2\times 0,09 \ &\quad\quad\quad\quad +0,3\times 0,49+ 0,2\times 2,89 \ &=1,61 \end{aligned}

  • Indicateurs de XX

Par linéarité de l’espérance, nous obtenons :

E(Y)=1000E(X)4500,3=1000E(X)450E(Y)=1\,000 E(X)-450 \Leftrightarrow 0,3=1\,000 E(X)-450

  • Nous en déduisons l’espérance de XX :

E(X)=0,3+4501000=0,4503\begin{aligned} E(X)&=\dfrac{0,3+450}{1\,000} \ &=0,4503 \end{aligned}

Nous avons donc Y=aX+bY=aX+b, avec a=1000=103a=1\,000=10^3. Avec la propriété sur la variance donnée ci-dessus, nous obtenons :

V(Y)=a2V(X)1,61=(103)2×V(X)V(Y)=a^2V(X)\Leftrightarrow 1,61={(10^3)}^2\times V(X)

  • Nous en déduisons la variance de XX :

V(X)=1,61×106V(X)=1,61\times 10^{-6}

Pour vous convaincre de la simplification dans les calculs que l’introduction de YY permet, vous pouvez déterminer E(X)E(X) et V(X)V(X) sans passer par YY

Somme de variables aléatoires

Pour bien comprendre cette notion de somme de variables aléatoires, nous allons suivre en fil rouge, tout au long de ce paragraphe, l’exemple détaillé d’un jeu qui se déroule en deux tirages indépendants (et obligatoires).

  • D’abord, dans une première urne contenant 55 boules rouges et 33 boules blanches (toutes indiscernables au toucher), on tire une boule.
  • Si la boule tirée est rouge (événement que nous notons RR), on perd 55 points.
  • Si elle est blanche (événement BB), on gagne 33 points.
  • Ensuite, dans une seconde urne contenant 22 boules noires, 11 boule jaune et 11 boule verte (elles aussi indiscernables au toucher), on tire encore une boule.
  • Si la boule tirée est noire (événement NN), on perd 22 points.
  • Si elle est jaune (événement JJ), on gagne 44 points.
  • Si elle est verte (événement VV), on gagne 66 points.

Considérons les variables aléatoires suivantes :

  • XX donne le nombre de points obtenus après le premier tirage ;
  • YY donne le nombre de points obtenus après le second.

XX est une variable aléatoire définie sur Ω1={R,B}\Omega_1=\lbrace R,\,B \rbrace.

  • X(Ω1)={5,3}X(\Omega_1)=\lbrace -5,\,3 \rbrace.

YY est une variable aléatoire définie sur Ω2={N,J,V}\Omega_2=\lbrace N,\,J,\,V \rbrace.

  • Y(Ω2)={2,4,6}Y(\Omega_2)=\lbrace -2,\,4,\,6 \rbrace.

Ce qui nous intéresse, c’est le nombre de points obtenus après les deux tirages. Pour cela, nous considérons maintenant la variable aléatoire ZZ, qui donne ce nombre total de points.

  • Logiquement, ZZ correspond alors à la somme des points obtenus après les deux tirages.
bannière definition

Définition

Somme de 22 variables aléatoires :

Soit XX et YY deux variables aléatoires.
La variable aléatoire définie par X+YX+Y prend pour valeurs les sommes possibles des valeurs prises par XX et YY.

Reprenons notre petit jeu.

  • Nous avons donc : Z=X+YZ=X+Y.

La variable aléatoire ZZ est définie sur l’univers :

Ω={(R,N),(R,J),(R,V),(B,N),(B,J),(B,V)}\Omega=\lbrace (R,\,N),\,(R,\,J),\,(R,\,V), (B,\,N),\,(B,\,J),\,(B,\,V) \rbrace

Pour déterminer les valeurs que peut prendre ZZ en fonction des valeurs prises par XX et YY, nous pouvons utiliser le tableau à deux entrées suivant :

Valeurs de XValeurs de Y^{\text{Valeurs de } Y\,\rightarrow}_{\text{Valeurs de } X\,\downarrow} 2-2 44 66
5-5 7-7 1-1 11
33 11 77 99
  • Nous obtenons ainsi :

Z(Ω)={7,1,1,7,9}Z(\Omega)=\lbrace -7,\,-1,\,1,\,7,\,9 \rbrace

bannière astuce

Astuce

Dans le paragraphe suivant, nous allons découvrir des propriétés qui nous permettront de calculer l’espérance et la variance de ZZ sans avoir à déterminer sa loi de probabilité.

  • Nous allons néanmoins le faire, pour être complet et montrer comment faire.

En utilisant le tableau que nous venons de donner, nous voyons par exemple que, pour obtenir un total de 7-7 points, il faut d’abord tirer une boule rouge – on perd 55 points –, puis une boule noire – on perd 22 points :

p(Z=7)=p(RN)=p((X=5)(Y=2))\begin{aligned} p(Z=-7)&=p(R\cap N) \ &=p\big( (X=-5)\cap (Y=-2)\big) \end{aligned}

De la même façon, pour obtenir un total de 11 point, il faut soit tirer une boule rouge – on perd 55 points – et une boule verte – on gagne 66 points –, soit tirer une boule blanche – on gagne 33 points – et une boule noire – on perd 22 points.

p(Z=1)=p(RV)+p(BN)=p((X=5)(Y=6))+p((X=3)(Y=2))\begin{aligned} p(Z=1)&=p(R\cap V)+p(B\cap N) \ &=p\big( (X=-5)\cap (Y=6)\big)+ p\big( (X=3)\cap (Y=-2)\big) \end{aligned}

En outre, les tirages étant indépendants, XX et YY sont indépendantes.

  • Nous obtenons :

p(Z=7)=p(X=5)×p(Y=2)=58×12=516p(Z=1)=p(X=5)×p(Y=6)+p(X=3)×p(Y=2)=58×14+38×12=532+316=1132\begin{aligned} p(Z=-7)&= p(X=-5)\times p(Y=-2) \ &=\dfrac 58\times \dfrac 12 \ &=\dfrac 5{16} \ \ p(Z=1)&= p(X=-5)\times p(Y=6) + p(X=3)\times p(Y=-2) \ &=\dfrac 58\times \dfrac 14+\dfrac 38\times \dfrac 12 \ &=\dfrac 5{32}+\dfrac 3{16} \ &=\dfrac{11}{32} \end{aligned}

Nous calculons de la même façon les autres probabilités, et nous obtenons la loi donnée par :

zizi 7-7 1-1 11 77 99
p(Z=zi)p(Z=zi) 516\dfrac{5}{16} 532\dfrac{5}{32} 1132\dfrac{11}{32} 332\dfrac{3}{32} 332\dfrac{3}{32}

Indicateurs d’une somme de deux variables aléatoires

Comme nous l’avons fait pour la transformation affine, nous pouvons donner, pour la somme, les propriétés suivantes.

bannière propriete

Propriété

Soit XX et YY deux variables aléatoires.
Soit ZZ une variable aléatoire définie par Z=X+YZ=X+Y.
Alors l’espérance de ZZ est donnée par :

E(Z)=E(X)+E(Y)E(Z)=E(X)+E(Y)

  • Nous parlons ici aussi de la linéarité de l’espérance.

Si de plus XX et YY sont indépendantes, nous avons la relation d’additivité de la variance :

V(Z)=V(X)+V(Y)V(Z)=V(X)+V(Y)

bannière exemple

Exemple

Reprenons une nouvelle fois le jeu précédent, et calculons l’espérance et la variance de ZZ.

  • Calculons d’abord celles de XX.

E(X)=5×58+3×38=2V(X)=58×(5(2))2+38×(3(2))2=58×9+38×25=15\begin{aligned} E(X)&=-5\times \dfrac 58 + 3\times \dfrac 38 \ &=-2 \ \ V(X)&=\dfrac 58\times \big(-5-(-2)\big)^2+\dfrac 38\times \big(3-(-2)\big)^2 \ &=\dfrac 58 \times 9+\dfrac 38\times 25 \ &=15 \end{aligned}

  • Calculons maintenant celles de YY.

E(Y)=2×12+4×14+6×14=64=1,5V(Y)=12×(21,5)2+14×(41,5)2+14×(61,5)2=12×12,25+14×6,25+14×20,25=12,75\begin{aligned} E(Y)&=-2\times \dfrac 12 + 4\times \dfrac 14 + 6\times \dfrac 14 \ &=\dfrac 64 \ &=1,5 \ \ V(Y)&=\dfrac 12\times (-2-1,5)^2+\dfrac 14\times (4-1,5)^2+\dfrac 14\times (6-1,5)^2 \ &=\dfrac 12\times 12,25+\dfrac 14\times 6,25+\dfrac 14\times 20,25 \ &=12,75 \end{aligned}

  • Nous obtenons finalement, XX et YY étant indépendantes :

E(Z)=E(X)+E(Y)=2+1,5=0,5V(Z)=V(X)+V(Y)=15+12,75=27,75σ(Z)=V(Z)5,268\begin{aligned} E(Z)&=E(X)+E(Y) \ &= -2+1,5 \ &=-0,5 \ \ V(Z)&=V(X)+V(Y) \ &= 15+12,75 \ &=27,75 \ \ \sigma(Z)&=\sqrt{V(Z)} \ &\approx 5,268 \end{aligned}

On pourrait vérifier ces calculs en calculant E(Z)E(Z) et V(Z)V(Z) à partir de la loi de probabilité de ZZ que nous avons donnée plus haut.

  • Mais les calculs, avec les probabilités que nous avons trouvées, seraient lourds.
bannière astuce

Astuce

Pour calculer les indicateurs d’une variable aléatoire, il est parfois plus simple de la décomposer en une somme de deux autres variables aléatoires, dont les espérance et variance sont plus simples à calculer.

  • Pour la variance, il ne faudra surtout pas oublier de montrer l’indépendance des variables aléatoires.

Imaginons ainsi que, en guise d’exercice, nous ayons eu le même jeu détaillé en énoncé, et que l’on nous ait demandé si ce jeu est équitable.
Il est alors inutile de calculer la loi de probabilités de ZZ, puis, au terme de calculs assez fastidieux, de donner l’espérance.

  • Il suffit de bien identifier XX et YY, l’espérance de chacune étant plus simple à calculer, puis d’utiliser la propriété de linéarité de l’espérance.

Pour précision finale, l’espérance de ZZ étant égale à 0,5-0,5, le jeu n’est pas équitable et il est en défaveur du joueur.

Espérance, variance et écart-type de la loi binomiale

Dans le cours précédent, nous avons découvert la loi de Bernoulli et la loi binomiale. Nous allons ici donner les propriétés pour déterminer les indicateurs d’une variable aléatoire suivant cette dernière. Puis nous donnerons un petit exemple pour appliquer les propriétés données ci-dessous.

Propriétés

bannière propriete

Propriété

Soit X1X1, X2X2, …, XnXn des variables aléatoires indépendantes définies sur le même univers et suivant toutes la même loi de Bernoulli de paramètre pp, notée B(p)\mathcal B(p).
Alors, leur somme X1+X2++XnX
1+X2+…+Xn suit une loi binomiale de paramètres nn et pp, notée B(n,p)\mathcal B(n,\,p).

bannière demonstration

Démonstration

On rappelle que la loi binomiale compte le nombre de succès dans un schéma de Bernoulli.

Chaque XiXi (1in1\leq i \leq n) prend deux valeurs, 00 ou 11, avec une probabilité pp de prendre la valeur 11.
Donc, lorsque l’on réalise successivement nn épreuves indépendantes de Bernoulli, la somme (des résultats) X1+X2++XnX
1+X2+…+Xn est égale au nombre de succès obtenus lors de ces épreuves.

  • X1+X2++XnX1+X2+…+X_n suit une loi binomiale de paramètres nn et pp.

Nous admettons la propriété suivante.

bannière propriete

Propriété

Soit XX une variable aléatoire suivant une loi binomiale B(n,p)\mathcal B(n,p).
Alors XX peut s’écrire comme une somme de variables aléatoires indépendantes suivant la même loi de Bernoulli.

  • C’est-à-dire que l’on a :

X=X1+X2++Xn[avec X1X2Xn des variables aleˊatoires suivant la loi B(p)]\begin{aligned} &X=X1+X2+…+Xn \ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec X1X1, X2X2, …, XnXn des variables aléatoires}}} \ &\footnotesize{\textcolor{#A9A9A9}{\text{ suivant la loi $\mathcal B(p)$]}}} \end{aligned}

Nous pouvons maintenant donner les propriétés qui nous permettront de calculer l’espérance et la variance d’une variable aléatoire suivant une loi binomiale.

bannière propriete

Propriété

Soit XX une variable aléatoire suivant une loi binomiale de paramètres nn et pp.
Alors, on a :

  • E(X)=npE(X)=np ;
  • V(X)=np(1p)V(X)=np(1-p) ;
  • σ(X)=V(X)=np(1p)\sigma(X)=\sqrt{V(X)}=\sqrt{np(1-p)} (σ(X)\sigma(X) est l’écart-type de XX).

En utilisant les propriétés que nous avons vues dans ce cours et celles pour l’espérance et la variance d’une variable aléatoire suivant une loi de Bernoulli, nous pouvons démontrer facilement ces dernières propriétés.

bannière demonstration

Démonstration

Par hypothèse, XX suit une loi binomiale de paramètres nn et pp.
Donc, d’après la propriété vue plus haut, il existe nn variables aléatoires de Bernoulli indépendantes X1X1, X2X2, …, XnX_n telles que :

X=X1+X2++XnX=X1+X2+…+X_n

Par ailleurs, pour tout entier ii tel que 1in1\leq i\leq n, on a : E(Xi)=pE(Xi)=p et V(Xi)=p(1p)V(Xi)=p(1-p), car chaque XiX_i suit une loi de Bernoulli de paramètre pp.

  • Dans ces conditions, nous avons :

E(X)=E(X1+X2++Xn)=E(X1)+E(X2)++E(Xn)[par lineˊariteˊ de l’espeˊrance]=p+p++pn fois=np\begin{aligned} E(X)&=E(X1+X2+…+Xn ) \ &=E(X1 )+E(X2 )+…+E(Xn ) \ &\footnotesize{\textcolor{#A9A9A9}{\text{[par linéarité de l’espérance]}}} \ &=\underbrace{p+p+…+p}_{\textcolor{#A9A9A9}{n \text{\ fois}}} \ &=np \end{aligned}

En outre, $X_1$, $X_2$, …, $X_n$ sont indépendantes.

  • Nous avons alors :

V(X)=V(X1+X2++Xn)=V(X1)+V(X2)++V(Xn) [par la relation d’additiviteˊ de la variance]=p(1p)+p(1p)++p(1p)n fois=np(1p)σ(X)=np(1p)\begin{aligned} V(X)&=V(X1+X2+⋯+Xn) \ &=V(X1)+V(X2)+⋯+V(Xn) \ &\footnotesize{\textcolor{#A9A9A9}{\text{ [par la relation d’additivité de la variance]}}} \ &=\underbrace{p(1-p)+p(1-p)+…+p(1-p)} _{\textcolor{#A9A9A9}{n \text{\ fois}}} \ &=np(1-p) \ \ \sigma(X)&=\sqrt{np(1-p)} \end{aligned}

bannière à retenir

À retenir

Il est plus pratique d’utiliser ces dernières propriétés pour calculer l’espérance, la variance et l’écart-type d’une variable aléatoire suivant une loi binomiale.
Pour cela, on commence toujours par justifier que XX suit une loi binomiale de paramètres nn et pp, à déterminer.

Nous allons traiter un exemple, pour montrer une application de cette méthode.

Exemple

Un institut politique souhaite constituer des groupes de réflexion, chacun de 150150 Français, et s’intéresse particulièrement à leur participation au premier tour des dernières élections.
Ces 150150 personnes sont choisies aléatoirement à partir des listes électorales de l’ensemble du territoire français.

  • On admet que le nombre d’inscrits à ces listes est suffisamment grand pour considérer que le « tirage » des 150150 noms est effectué avec remise.

Connaissant le taux de participation à ce premier tour, que nous considérons comme égal à 45%45\,\%, l’institut souhaite étudier la variable aléatoire XX qui donne, parmi les 150150 personnes tirées au sort du groupe, le nombre de celles et ceux qui sont allés voter.

  • Montrons que XX suit une loi binomiale de paramètres nn et pp, et déterminons ces derniers.
  • Il s’agit donc de tirer au sort une personne et de regarder si elle a voté. Ce tirage est répété 150150 fois et, pour chaque tirage, nous avons 22 issues :
  • « La personne choisie a voté », considérée comme succès (SS) ;
  • « La personne choisie n’a pas voté », considérée comme échec (EE).
  • Nous considérons que le tirage se fait avec remise. Il y a donc 150150 expériences identiques et indépendantes.
  • La variable aléatoire compte le nombre de personnes qui ont voté parmi les 150150 personnes choisies, soit le nombre de succès.
  • Enfin, la proportion des votants parmi la population des inscrits est égale à 0,450,45.
  • XX suit une loi binomiale de paramètres n=150n=150 et p=0,45p=0,45.
  • Écrivons XX sous la forme de variables aléatoires.

La propriété donnée plus haut nous dit que nous pouvons alors écrire XX comme somme de variables aléatoires indépendantes suivant la même loi de Bernoulli.

  • Nous obtenons ainsi :

X=X1+X2++X150[avec X1X2X150 des variables aleˊatoires suivant la loi de Bernoulli de parameˋtre p=0,45]\begin{aligned} X&=X1+X2+…+X_{150} \ &\footnotesize{\textcolor{#A9A9A9}{\text{[avec $X_1$, $X_2$, …, $X_{150}$ des variables aléatoires}}} \ &\footnotesize{\textcolor{#A9A9A9}{\text{ suivant la loi de Bernoulli de paramètre $p=0,45$]}}} \end{aligned}

  • Calculons l’espérance de XX.

Nous connaissons donc les paramètres de la loi binomiale suivie par XX.

  • Grâce à la propriété que nous avons vue, nous avons :

E(X)=np=150×0,45=67,5\begin{aligned} E(X)&=np \ &=150\times 0,45 \ &=67,5 \end{aligned}

  • Calculons enfin la variance et l’écart-type de XX.

De la même façon, nous avons :

V(X)=np(1p)=150×0,45×0,55=37,125σ(X)=V(X)6,093\begin{aligned} V(X)&=np(1-p) \ &=150\times 0,45\times 0,55 \ &=37,125 \ \ \sigma(X)&=\sqrt{V(X)} \ &\approx 6,093 \end{aligned}

  • La variable aléatoire XX est d’espérance 67,567,5 et d’écart-type proche de 6,0936,093.

Il est ainsi inutile de déterminer les probabilités de toutes les valeurs que peut prendre XX pour calculer son espérance et son écart-type. Ce serait d’ailleurs fastidieux, car XX peut prendre au total 151151 valeurs différentes, de 00 à 150150 !

Somme de variables aléatoires identiques

Plus généralement, nous allons voir dans cette partie comment calculer l’espérance et la variance d’une variable aléatoire XX qui s’écrit comme somme de variables aléatoires indépendantes suivant une même loi de probabilité.
Comme dans la deuxième partie, nous allons d’abord donner les définitions et les propriétés, avant de les appliquer sur un exemple.

Définition et propriétés

bannière definition

Définition

Échantillon de taille nn d’une loi de probabilité :

Soit nn un entier naturel non nul.
On appelle échantillon de taille nn d’une loi de probabilité une liste (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) de variables aléatoires indépendantes suivant toutes cette loi.

bannière exemple

Exemple

On lance 44 dés équilibrés et on note XiX_i (avec 1i41\leq i\leq 4) la variable aléatoire correspondant au résultat du dé numéro ii.
Les dés sont équilibrés, donc ces variables aléatoires suivent la même loi de probabilité, donnée par le tableau suivant :

xixi 11 22 33 44 55 66
p(X=xi)p(X=xi) 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6} 16\dfrac{1}{6}
  • La liste (X1,X2,X3,X4)(X1,\,X2,\,X3,\,X4) est donc un échantillon, de taille 44, de variables aléatoires associé à la cette loi.
bannière à retenir

À retenir

Soit (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) un échantillon de taille nn d’une loi de probabilité.

  • On note SnS_n la somme de ces variables aléatoires et :

Sn=X1+X2++XnSn=X1+X2+ …+Xn

  • On note MnM_n la moyenne de ces variables aléatoires et :

Mn=X1+X2++Xnn=Snn\begin{aligned} Mn&=\dfrac {X1+X2+ …+Xn}n \ &=\dfrac{S_n}n \end{aligned}

bannière propriete

Propriété

Soit (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) un échantillon de taille nn d’une loi de probabilité.
Soit EE, VV et σ\sigma respectivement l’espérance, la variance et l’écart-type de la variable suivant cette loi de probabilité.
Nous avons alors :

  • E(Sn)=nEE(S_n)=nE ;
  • V(Sn)=nVV(S_n)=nV ;
  • σ(Sn)=nσ\sigma(S_n)=\sqrt n\,\sigma.
bannière demonstration

Démonstration

Comme les nn variables aléatoires suivent la même loi, elles ont donc la même espérance, que nous notons EE.

  • Par la propriété de la linéarité de l’espérance, on obtient :

E(Sn)=E(X1+X2++Xn)=E(X1)+E(X2)++E(Xn)=nE\begin{aligned} E(Sn)&=E(X1+X2+ …+Xn) \ &=E(X1)+E(X2)+ …+E(X_n) \ &=nE \end{aligned}

Les nn variables aléatoires ont aussi la même variance et le même écart-type, que nous notons respectivement VV et σ=V\sigma=\sqrt{V}. Les variables aléatoires sont indépendantes.

  • On peut donc utiliser la propriété d’additivité de la variance :

V(Sn)=V(X1+X2++Xn)=V(X1)+V(X2)++V(Xn)=nVσ(Sn)=nV=nV [V et n sont positifs]=nσ\begin{aligned} V(Sn)&=V(X1+X2+ …+Xn) \ &=V(X1)+V(X2)+ …+V(Xn) \ &=nV \ \ \sigma(Sn)&=\sqrt{nV} \ &=\sqrt{n}\,\sqrt{V}\footnotesize{\textcolor{#A9A9A9}{\text{ [VV et nn sont positifs]}}} \ &=\sqrt{n}\,\sigma \end{aligned}

bannière propriete

Propriété

Soit (X1,X2,,Xn)(X1,\,X2,\,…,\,X_n) un échantillon de taille $n$ d’une loi de probabilité.
Soit EE, VV et σ\sigma respectivement l’espérance, la variance et l’écart-type de la variable suivant cette loi de probabilité.
Nous avons alors :

  • E(Mn)=EE(M_n)=E ;
  • V(Mn)=VnV(M_n)=\frac Vn ;
  • σ(Mn)=σn\sigma(M_n)=\frac{\sigma}{\sqrt n}.
bannière demonstration

Démonstration

Nous allons nous servir des propriétés que nous venons de voir pour SnS_n :

E(Mn)=E(Snn)=1n×E(Sn) [par lineˊariteˊ de l’espeˊrance]=1n×n×E [car E(Sn)=nE]=EV(Mn)=V(Snn)=1n2×V(Sn) [car V(aX)=a2V(X)]=1n2×n×V [car V(Sn)=nV]=Vnσ(Mn)=Vn=Vn [V et n sont positifs]=σn\begin{aligned} E(Mn)&=E\left(\frac {Sn}n\right) \ &=\dfrac 1n\times E(Sn) \footnotesize{\textcolor{#A9A9A9}{\text{ [par linéarité de l’espérance]}}} \ &=\dfrac 1n\times n\times E \footnotesize{\textcolor{#A9A9A9}{\text{ [car $E(S_n)=nE$]}}} \ &=E \ \ V(Mn)&= V\left(\frac {Sn}n\right) \ &=\dfrac 1{n^2}\times V(Sn) \footnotesize{\textcolor{#A9A9A9}{\text{ [car $V(aX)=a^2V(X)$]}}} \ &=\dfrac 1{n^2}\times n\times V \footnotesize{\textcolor{#A9A9A9}{\text{ [car $V(S_n)=nV$]}}} \ &=\dfrac Vn \ \ \sigma(M_n)&=\sqrt{\dfrac Vn} \ &=\dfrac {\sqrt{V}}{\sqrt n}\footnotesize{\textcolor{#A9A9A9}{\text{ [$V$ et $n$ sont positifs]}}} \ &=\dfrac {\sigma}{\sqrt n} \end{aligned}

Exemple

Considérons un nouveau jeu, avec une roue (non truquée) qui peut tourner sur elle-même et une aiguille (qui, elle, est fixe). Cette roue est un disque divisé en trois portions :

  • la portion noire représente un quart de l’aire du disque ;
  • la blanche représente aussi un quart de l’aire du disque ;
  • la verte représente la moitié de l’aire du disque.

Contre une somme de 2 euros2\ \text{euros}, le joueur peut lancer la roue à 44 reprises.
À chaque lancer de roue, les conditions sont les suivantes :

  • si l’aiguille indique la portion noire (événement NN et p(N)=14p(N)=\frac 14), le joueur perd 5 euros5\ \text{euros} ;
  • si l’aiguille indique la portion blanche (événement BB et p(B)=14p(B)=\frac 14), le joueur ne gagne ni ne perd rien ;
  • si l’aiguille indique la portion verte (événement $V$ et p(V)=12p(V)=\frac 12), le joueur gagne 3 euros3\ \text{euros}.

Définissons la variable aléatoire XX qui compte le gain algébrique à la fin du jeu, c’est-à-dire après 44 lancers.

  • Exprimons XX comme somme de variables aléatoires.

Nous voyons que XX représente le gain après 44 répétitions d’une même expérience : le lancer d’une roue.

Soit XiX_i (1i41\leq i\leq 4) la variable aléatoire qui donne le gain algébrique obtenu après le lancer ii.
Nous pouvons alors écrire :

X=i=14Xi=X1+X2+X3+X4\begin{aligned} X&= \sum{i=1}^4 Xi \ &=X1+X2+X3+X4 \end{aligned}

  • Ces 44 variables aléatoires sont indépendantes et suivent la même loi de probabilité.
  • Déterminons cette dernière, ainsi que ses indicateurs.

Considérons la variable aléatoire Y=X1=X2=X3=X4Y=X1=X2=X3=X4.

  • Sa loi de probabilité est simple à déterminer et elle est donnée par le tableau suivant :

yiyi 5-5 00 33
p(Y=yi)p(Y=yi) 0,250,25 0,250,25 0,50,5

Nous calculons maintenant son espérance, sa variance et son écart-type :

E(Y)=5×0,25+0×0,25+3×0,5=0,25V(Y)=0,25×(50,25)2+0,25×(00,25)2+0,5×(30,25)2=10,6875σ(Y)=V(Y)=10,8753,27\begin{aligned} E(Y)&= -5\times 0,25+ 0\times 0,25 + 3\times 0,5 \ &=0,25 \ \ V(Y)&=0,25\times (-5-0,25)^2+0,25\times (0-0,25)^2+0,5\times (3-0,25)^2 \ &=10,6875 \ \ \sigma(Y)&=\sqrt{V(Y)} \ &=\sqrt{10,875}\approx 3,27 \end{aligned}

  • Déterminons les indicateurs de XX.

Pour cela, nous utilisons tout simplement (et rapidement) les propriétés que nous venons de voir, avec n=4n=4 :

E(X)=nE(Y)=4×0,25=1V(X)=nV(Y)=42,75σ(Y)=nσ(Y)=210,8756,54\begin{aligned} E(X)&= nE(Y) \ &= 4\times 0,25 \ &=1 \ \ V(X)&=nV(Y) \ &=42,75 \ \ \sigma(Y)&=\sqrt{n}\,\sigma(Y) \ &=2\sqrt{10,875}\approx 6,54 \end{aligned}

  • Donnons, pour terminer, quelques interprétations simple de ces résultats.

L’espérance de XX est égale à 11. Nous pourrions commettre l’erreur de considérer le jeu comme à l’avantage du joueur.
Mais, attention, XX ne prend pas en compte le prix à payer pour pouvoir jouer ! Pour se faire une meilleure idée, il conviendrait donc d’étudier la variable aléatoire Z=Y2Z=Y-2, qui retranche au gain final le droit payé au début.
Par linéarité de l’espérance, nous obtenons :

E(Z)=E(X2)=E(X)2=12=1\begin{aligned} E(Z)&=E(X-2) \ &=E(X)-2 \ &=1-2 \ &=-1 \end{aligned}

  • Ainsi, en réalité, le jeu est en défaveur du joueur !

Par ailleurs, nous avons trouvé pour XX un écart-type relativement important (pour ZZ aussi, car σ(Z)=σ(X)\sigma(Z)=\sigma(X)).

  • Les valeurs sont assez dispersées autour de l’espérance.

En effet, par exemple, si nous tombons à 44 reprises sur la portion noire, notre perte finale s’élèvera à 20+2=22 euros20+2=22\ \text{euros}. Et si nous tombons à 44 reprises sur la portion verte, notre gain final s’élèvera à 122=10 euros12-2=10\ \text{euros}.

Conclusion :

Dans ce cours, nous avons vu comment définir une somme de variables aléatoires. Nous avons également vu que les calculs de l’espérance et de la variance d’une variable aléatoire peuvent être simplifiés, par transformation affine ou en la décomposant comme somme de variables aléatoires indépendantes.
Et c’est grâce à cette décomposition que nous avons pu calculer l’espérance et la variance de la loi binomiale.