Probabilités : Variables Aléatoires Discrètes
Bienvenue dans cette série d'exercices conçue pour te familiariser avec les variables aléatoires discrètes, un concept fondamental en probabilités et statistiques. Nous allons travailler sur la définition, la loi de probabilité, l'espérance, la variance et explorer diverses lois discrètes classiques. Chaque exercice te proposera des situations concrètes et des problèmes à résoudre, accompagnés de corrections détaillées pour une assimilation complète.
Compétences travaillées
- Définir et caractériser une variable aléatoire discrète.
- Déterminer et interpréter une loi de probabilité.
- Calculer l'espérance mathématique et la variance.
- Identifier et appliquer les lois binomiale et de Poisson.
- Résoudre des problèmes probabilistes complexes.
Erreurs fréquentes à éviter :
- Confondre une variable aléatoire avec un événement.
- Ne pas vérifier la somme des probabilités d'une loi (doit être égale à 1).
- Erreurs de calcul dans l'espérance ou la variance.
- Appliquer une loi (binomiale, Poisson) sans vérifier ses conditions d'application.
- Interpréter incorrectement les résultats (espérance comme valeur certaine, etc.).
Exercices sur les Variables Aléatoires Discrètes
Exercice 1 : Une urne contient 3 boules rouges et 2 boules bleues. On tire successivement 2 boules sans remise. Soit $X$ la variable aléatoire égale au nombre de boules rouges tirées. Déterminer l'ensemble des valeurs possibles pour $X$ et la loi de probabilité de $X$.
Correction :
L'ensemble des valeurs possibles pour $X$ (nombre de boules rouges tirées) est $\{0, 1, 2\}$.
Calculons les probabilités pour chaque valeur :
- $P(X=0)$ : On tire 0 boule rouge, donc 2 boules bleues. Il y a $\binom{2}{2}=1$ façon de choisir les 2 boules bleues parmi les 2. Le nombre total de façons de tirer 2 boules parmi 5 est $\binom{5}{2} = \frac{5 \times 4}{2} = 10$. Donc $P(X=0) = \frac{1}{10}$.
- $P(X=1)$ : On tire 1 boule rouge et 1 boule bleue. Il y a $\binom{3}{1}$ façons de choisir la boule rouge et $\binom{2}{1}$ façons de choisir la boule bleue. Donc $3 \times 2 = 6$ façons. $P(X=1) = \frac{6}{10}$.
- $P(X=2)$ : On tire 2 boules rouges. Il y a $\binom{3}{2}=3$ façons de choisir les 2 boules rouges. $P(X=2) = \frac{3}{10}$.
Vérification : $P(X=0) + P(X=1) + P(X=2) = \frac{1}{10} + \frac{6}{10} + \frac{3}{10} = \frac{10}{10} = 1$. La loi est valide.
Loi de probabilité de $X$ :
| $k$ | 0 | 1 | 2 |
| $P(X=k)$ | $1/10$ | $6/10$ | $3/10$ |
Résultat : L'ensemble des valeurs possibles pour $X$ est $\{0, 1, 2\}$. La loi de probabilité est donnée dans le tableau ci-dessus.
Méthode : Identifier toutes les issues possibles de l'expérience aléatoire, puis déterminer quelles issues correspondent à chaque valeur de la variable aléatoire. Calculer la probabilité de chaque événement correspondant.
Exercice 2 : Soit $X$ une variable aléatoire discrète dont la loi de probabilité est donnée par : $P(X=-1) = 0.2$, $P(X=0) = 0.3$, $P(X=1) = 0.4$, $P(X=2) = 0.1$. Calculer l'espérance mathématique $E(X)$ et la variance $Var(X)$ de $X$.
Correction :
L'espérance mathématique $E(X)$ est calculée par la formule $E(X) = \sum_{k} k \cdot P(X=k)$.
$E(X) = (-1) \times 0.2 + 0 \times 0.3 + 1 \times 0.4 + 2 \times 0.1$
$E(X) = -0.2 + 0 + 0.4 + 0.2 = 0.4$
La variance $Var(X)$ est calculée par la formule $Var(X) = E(X^2) - (E(X))^2$. D'abord, calculons $E(X^2)$ :
$E(X^2) = (-1)^2 \times 0.2 + 0^2 \times 0.3 + 1^2 \times 0.4 + 2^2 \times 0.1$
$E(X^2) = 1 \times 0.2 + 0 \times 0.3 + 1 \times 0.4 + 4 \times 0.1$
$E(X^2) = 0.2 + 0 + 0.4 + 0.4 = 1.0$
Maintenant, calculons la variance :
$Var(X) = E(X^2) - (E(X))^2 = 1.0 - (0.4)^2 = 1.0 - 0.16 = 0.84$
Résultat : $E(X) = 0.4$ et $Var(X) = 0.84$.
Méthode : Appliquer les formules de l'espérance et de la variance pour une variable aléatoire discrète. Assurer le calcul correct de $E(X^2)$ avant de calculer la variance.
Exercice 3 : Une pièce de monnaie est lancée 10 fois de manière indépendante. La probabilité d'obtenir "face" à chaque lancer est de $p=0.6$. Soit $X$ le nombre de "face" obtenus. Quelle est la loi de probabilité de $X$ ? Calculer l'espérance et la variance de $X$.
Correction :
Cette expérience correspond à une loi binomiale car :
- Il y a un nombre fixe d'essais ($n=10$).
- Chaque essai a deux issues possibles : "face" (succès) ou "pile" (échec).
- Les essais sont indépendants.
- La probabilité de succès est constante ($p=0.6$).
Donc, $X$ suit une loi binomiale de paramètres $n=10$ et $p=0.6$. On note $X \sim B(10, 0.6)$.
La loi de probabilité est donnée par $P(X=k) = \binom{n}{k} p^k (1-p)^{n-k}$ pour $k \in \{0, 1, \dots, 10\}$.
Espérance : Pour une loi binomiale $B(n, p)$, $E(X) = np$.
$E(X) = 10 \times 0.6 = 6$.
Variance : Pour une loi binomiale $B(n, p)$, $Var(X) = np(1-p)$.
$Var(X) = 10 \times 0.6 \times (1-0.6) = 10 \times 0.6 \times 0.4 = 2.4$.
Résultat : $X \sim B(10, 0.6)$. $E(X) = 6$ et $Var(X) = 2.4$.
Méthode : Identifier le type de loi de probabilité (ici, binomiale) en vérifiant les conditions d'application. Utiliser ensuite les formules spécifiques à cette loi pour calculer l'espérance et la variance.
Exercice 4 : Dans une usine, la probabilité qu'une pièce présente un défaut est de $0.01$. On prélève aléatoirement un échantillon de 200 pièces. Soit $Y$ le nombre de pièces défectueuses dans l'échantillon. On peut approcher la loi de $Y$ par une loi de Poisson. Quel est le paramètre $\lambda$ de cette loi de Poisson ? Calculer la probabilité qu'il y ait exactement 3 pièces défectueuses.
Correction :
La variable $Y$ suit une loi binomiale $B(n=200, p=0.01)$ car les tirages sont indépendants, le nombre d'essais est fixé, et la probabilité de défaut est constante.
L'approximation par la loi de Poisson est justifiée lorsque $n$ est grand et $p$ est petit. Ici $n=200$ est grand et $p=0.01$ est petit. Le paramètre $\lambda$ de la loi de Poisson est l'espérance de la loi binomiale : $\lambda = np$.
Calcul du paramètre $\lambda$ :
$\lambda = 200 \times 0.01 = 2$.
Donc, $Y$ peut être approximée par une loi de Poisson de paramètre $\lambda=2$. On note $Y \sim \mathcal{P}(2)$.
La loi de probabilité de Poisson est donnée par $P(Y=k) = \frac{\lambda^k e^{-\lambda}}{k!}$.
Calcul de la probabilité d'avoir exactement 3 pièces défectueuses ($k=3$) :
$P(Y=3) = \frac{2^3 e^{-2}}{3!} = \frac{8 e^{-2}}{6} = \frac{4}{3} e^{-2}$.
En utilisant une calculatrice : $e^{-2} \approx 0.1353$.
$P(Y=3) \approx \frac{4}{3} \times 0.1353 \approx 0.1804$.
Résultat : Le paramètre $\lambda$ est 2. La probabilité qu'il y ait exactement 3 pièces défectueuses est $\frac{4}{3} e^{-2} \approx 0.1804$.
Méthode : Reconnaître une situation de loi binomiale, puis identifier les conditions d'approximation par la loi de Poisson. Calculer le paramètre $\lambda$ et utiliser la formule de la loi de Poisson.
Exercice 5 : On considère une variable aléatoire $X$ dont la loi de probabilité est donnée par le tableau suivant :
| $k$ | 0 | 1 | 2 | 3 |
| $P(X=k)$ | $1/10$ | $3/10$ | $4/10$ | $2/10$ |
Calculer l'espérance $E(X)$, la variance $Var(X)$, et l'écart-type $\sigma(X)$.
Correction :
Calcul de l'espérance $E(X)$ :
$E(X) = 0 \times \frac{1}{10} + 1 \times \frac{3}{10} + 2 \times \frac{4}{10} + 3 \times \frac{2}{10}$
$E(X) = 0 + \frac{3}{10} + \frac{8}{10} + \frac{6}{10} = \frac{17}{10} = 1.7$
Calcul de $E(X^2)$ pour la variance :
$E(X^2) = 0^2 \times \frac{1}{10} + 1^2 \times \frac{3}{10} + 2^2 \times \frac{4}{10} + 3^2 \times \frac{2}{10}$
$E(X^2) = 0 \times \frac{1}{10} + 1 \times \frac{3}{10} + 4 \times \frac{4}{10} + 9 \times \frac{2}{10}$
$E(X^2) = 0 + \frac{3}{10} + \frac{16}{10} + \frac{18}{10} = \frac{37}{10} = 3.7$
Calcul de la variance $Var(X)$ :
$Var(X) = E(X^2) - (E(X))^2 = 3.7 - (1.7)^2 = 3.7 - 2.89 = 0.81$
Calcul de l'écart-type $\sigma(X)$ :
$\sigma(X) = \sqrt{Var(X)} = \sqrt{0.81} = 0.9$
Résultat : $E(X) = 1.7$, $Var(X) = 0.81$, et $\sigma(X) = 0.9$.
Méthode : Appliquer rigoureusement les formules de l'espérance, de la variance et de l'écart-type pour une variable aléatoire discrète à partir de sa loi de probabilité.
Exercice 6 : On lance un dé à 6 faces équilibré 3 fois de suite. Soit $X$ le nombre de 6 obtenus. Quelle est la loi de $X$ ? Calculer la probabilité d'obtenir au moins un 6.
Correction :
Chaque lancer de dé est une épreuve de Bernoulli avec succès si on obtient un 6. La probabilité de succès est $p = P(\text{obtenir un 6}) = 1/6$. La probabilité d'échec est $1-p = 5/6$. Les lancers sont indépendants. Nous avons un nombre fixe d'essais ($n=3$).
Donc, $X$ suit une loi binomiale $B(n=3, p=1/6)$.
La probabilité d'obtenir au moins un 6 est $P(X \ge 1)$. Il est plus simple de calculer la probabilité complémentaire : $P(X \ge 1) = 1 - P(X=0)$.
$P(X=0)$ est la probabilité de n'obtenir aucun 6 en 3 lancers.
$P(X=0) = \binom{3}{0} (1/6)^0 (5/6)^{3-0} = 1 \times 1 \times (5/6)^3 = (5/6)^3 = 125/216$.
Donc, $P(X \ge 1) = 1 - \frac{125}{216} = \frac{216 - 125}{216} = \frac{91}{216}$.
Résultat : $X \sim B(3, 1/6)$. La probabilité d'obtenir au moins un 6 est $\frac{91}{216}$.
Méthode : Identifier la loi binomiale. Pour calculer "au moins un", utiliser l'événement complémentaire "aucun" pour simplifier les calculs.
Exercice 7 : Soit $X$ une variable aléatoire discrète dont la loi est :
| $k$ | 1 | 2 | 3 | 4 |
| $P(X=k)$ | $1/6$ | $1/3$ | $1/2$ | $1/6$ |
Cette loi est-elle valide ? Si oui, calculer $E(X)$ et $Var(X)$.
Correction :
Vérification de la validité de la loi :
La somme des probabilités doit être égale à 1.
Somme = $1/6 + 1/3 + 1/2 + 1/6 = 1/6 + 2/6 + 3/6 + 1/6 = 7/6$.
La somme des probabilités est $7/6$, ce qui est supérieur à 1. La loi de probabilité n'est pas valide.
Si la loi était valide (par exemple, si les probabilités étaient corrigées pour sommer à 1), voici comment on calculerait $E(X)$ et $Var(X)$. Pour l'exemple, imaginons que les probabilités corrigées soient :
| $k$ | 1 | 2 | 3 | 4 |
| $P'(X=k)$ | $1/7$ | $2/7$ | $3/7$ | $1/7$ |
Somme : $1/7 + 2/7 + 3/7 + 1/7 = 7/7 = 1$. Cette loi est valide.
Calcul de $E(X)$ avec la loi corrigée :
$E(X) = 1 \times \frac{1}{7} + 2 \times \frac{2}{7} + 3 \times \frac{3}{7} + 4 \times \frac{1}{7}$
$E(X) = \frac{1}{7} + \frac{4}{7} + \frac{9}{7} + \frac{4}{7} = \frac{18}{7}$
Calcul de $E(X^2)$ :
$E(X^2) = 1^2 \times \frac{1}{7} + 2^2 \times \frac{2}{7} + 3^2 \times \frac{3}{7} + 4^2 \times \frac{1}{7}$
$E(X^2) = 1 \times \frac{1}{7} + 4 \times \frac{2}{7} + 9 \times \frac{3}{7} + 16 \times \frac{1}{7}$
$E(X^2) = \frac{1}{7} + \frac{8}{7} + \frac{27}{7} + \frac{16}{7} = \frac{52}{7}$
Calcul de $Var(X)$ :
$Var(X) = E(X^2) - (E(X))^2 = \frac{52}{7} - (\frac{18}{7})^2 = \frac{52}{7} - \frac{324}{49} = \frac{52 \times 7 - 324}{49} = \frac{364 - 324}{49} = \frac{40}{49}$.
Résultat : La loi de probabilité donnée n'est pas valide car la somme des probabilités est $7/6 \ne 1$. Les calculs d'espérance et de variance ne peuvent donc pas être effectués avec cette loi. Si l'on utilisait une loi corrigée valide (exemple : $1/7, 2/7, 3/7, 1/7$), on obtiendrait $E(X) = 18/7$ et $Var(X) = 40/49$.
Méthode : Toujours commencer par vérifier si la loi de probabilité donnée est valide (somme des probabilités égale à 1, probabilités non négatives). Si la loi n'est pas valide, les calculs d'espérance et de variance sont impossibles.
Exercice 8 : Une entreprise fabrique des composants électroniques. La probabilité qu'un composant soit défectueux est de $p=0.05$. On souhaite déterminer le nombre minimum de composants à prélever pour que la probabilité d'avoir au moins un composant défectueux soit supérieure ou égale à 0.99. Soit $N$ le nombre de composants prélevés. Exprimer la probabilité d'avoir au moins un composant défectueux en fonction de $N$, puis résoudre pour $N$.
Correction :
Soit $X$ le nombre de composants défectueux parmi les $N$ prélevés. Chaque prélèvement est indépendant, et la probabilité de défaut est constante $p=0.05$. $X$ suit donc une loi binomiale $B(N, 0.05)$.
La probabilité d'avoir au moins un composant défectueux est $P(X \ge 1)$. Il est plus simple de calculer l'événement complémentaire : $P(X \ge 1) = 1 - P(X=0)$.
$P(X=0) = \binom{N}{0} (0.05)^0 (1-0.05)^{N-0} = 1 \times 1 \times (0.95)^N = (0.95)^N$.
Donc, $P(X \ge 1) = 1 - (0.95)^N$.
On cherche $N$ tel que $P(X \ge 1) \ge 0.99$.
$1 - (0.95)^N \ge 0.99$
$-(0.95)^N \ge 0.99 - 1$
$-(0.95)^N \ge -0.01$
$(0.95)^N \le 0.01$
Pour résoudre cette inégalité pour $N$, on prend le logarithme népérien des deux côtés (puisque $\ln$ est une fonction croissante) :
$\ln((0.95)^N) \le \ln(0.01)$
$N \ln(0.95) \le \ln(0.01)$
Comme $\ln(0.95)$ est négatif (car $0.95 < 1$), on doit changer le sens de l'inégalité en divisant par $\ln(0.95)$ :
$N \ge \frac{\ln(0.01)}{\ln(0.95)}$
Calculons les valeurs : $\ln(0.01) \approx -4.605$ et $\ln(0.95) \approx -0.0513$.
$N \ge \frac{-4.605}{-0.0513} \approx 89.766$.
Puisque $N$ doit être un entier, le nombre minimum de composants à prélever est $N=90$.
Résultat : Le nombre minimum de composants à prélever est $N=90$.
Méthode : Modéliser la situation avec une loi binomiale. Utiliser la probabilité de l'événement complémentaire pour simplifier le calcul. Résoudre l'inégalité obtenue en utilisant les logarithmes.
Exercice 9 : Soit $X$ une variable aléatoire suivant la loi de Poisson de paramètre $\lambda$.
a) Montrer que $E(X) = \lambda$.
b) Montrer que $Var(X) = \lambda$.
Correction :
La loi de Poisson de paramètre $\lambda$ est donnée par $P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!}$ pour $k \in \{0, 1, 2, \dots\}$.
a) Calcul de l'espérance $E(X)$ :
$E(X) = \sum_{k=0}^{\infty} k P(X=k) = \sum_{k=0}^{\infty} k \frac{\lambda^k e^{-\lambda}}{k!}$
Le terme pour $k=0$ est 0, donc on peut commencer la somme à $k=1$ :
$E(X) = \sum_{k=1}^{\infty} k \frac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=1}^{\infty} \frac{\lambda^k e^{-\lambda}}{(k-1)!}$
On peut factoriser $e^{-\lambda}$ et réécrire $\lambda^k$ comme $\lambda \cdot \lambda^{k-1}$ :
$E(X) = \lambda e^{-\lambda} \sum_{k=1}^{\infty} \frac{\lambda^{k-1}}{(k-1)!}$
Posons $j = k-1$. Lorsque $k$ va de 1 à $\infty$, $j$ va de 0 à $\infty$. L'expression devient :
$E(X) = \lambda e^{-\lambda} \sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!}$
La somme $\sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!}$ est le développement en série de Taylor de $e^{\lambda}$. Donc, $\sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!} = e^{\lambda}$.
$E(X) = \lambda e^{-\lambda} \cdot e^{\lambda} = \lambda$.
b) Calcul de la variance $Var(X)$ :
On calcule d'abord $E(X^2)$ :
$E(X^2) = \sum_{k=0}^{\infty} k^2 P(X=k) = \sum_{k=0}^{\infty} k^2 \frac{\lambda^k e^{-\lambda}}{k!}$
Pour $k=0$, le terme est 0. Pour $k \ge 1$, on a $k^2 = k(k-1) + k$.
$E(X^2) = \sum_{k=1}^{\infty} (k(k-1) + k) \frac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=1}^{\infty} k(k-1) \frac{\lambda^k e^{-\lambda}}{k!} + \sum_{k=1}^{\infty} k \frac{\lambda^k e^{-\lambda}}{k!}$
Le second terme est $E(X) = \lambda$. Considérons le premier terme :
$\sum_{k=1}^{\infty} k(k-1) \frac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=2}^{\infty} k(k-1) \frac{\lambda^k e^{-\lambda}}{k!}$ (car pour $k=1$, $k(k-1)=0$)
$= \sum_{k=2}^{\infty} \frac{\lambda^k e^{-\lambda}}{(k-2)!} = \lambda^2 e^{-\lambda} \sum_{k=2}^{\infty} \frac{\lambda^{k-2}}{(k-2)!}$
Posons $j = k-2$. Lorsque $k$ va de 2 à $\infty$, $j$ va de 0 à $\infty$. L'expression devient :
= $\lambda^2 e^{-\lambda} \sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!} = \lambda^2 e^{-\lambda} \cdot e^{\lambda} = \lambda^2$.
Donc, $E(X^2) = \lambda^2 + E(X) = \lambda^2 + \lambda$.
Maintenant, calculons la variance :
$Var(X) = E(X^2) - (E(X))^2 = (\lambda^2 + \lambda) - \lambda^2 = \lambda$.
Résultat : $E(X) = \lambda$ et $Var(X) = \lambda$.
Méthode : Utiliser les définitions de l'espérance et de la variance, ainsi que le développement en série de Taylor de la fonction exponentielle ($e^x = \sum_{n=0}^{\infty} \frac{x^n}{n!}$).
Exercice 10 : Une équipe de football marque en moyenne 2 buts par match. On peut modéliser le nombre de buts marqués par match par une variable aléatoire $X$ suivant une loi de Poisson. Calculer la probabilité que l'équipe marque exactement 3 buts dans un match. Calculer ensuite la probabilité qu'elle marque plus de 2 buts dans un match.
Correction :
Le nombre de buts marqués par match suit une loi de Poisson. La moyenne est donnée comme étant 2 buts par match, donc le paramètre $\lambda = 2$. La loi de $X$ est $\mathcal{P}(2)$.
La formule de la loi de Poisson est $P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!}$. Ici, $\lambda=2$.
Probabilité de marquer exactement 3 buts :
Pour $k=3$, $P(X=3) = \frac{2^3 e^{-2}}{3!} = \frac{8 e^{-2}}{6} = \frac{4}{3} e^{-2}$.
En utilisant $e^{-2} \approx 0.1353$, $P(X=3) \approx \frac{4}{3} \times 0.1353 \approx 0.1804$.
Probabilité de marquer plus de 2 buts :
Il s'agit de calculer $P(X > 2)$. Il est plus simple de calculer la probabilité complémentaire $P(X \le 2) = P(X=0) + P(X=1) + P(X=2)$, puis $P(X > 2) = 1 - P(X \le 2)$.
$P(X=0) = \frac{2^0 e^{-2}}{0!} = \frac{1 \times e^{-2}}{1} = e^{-2}$.
$P(X=1) = \frac{2^1 e^{-2}}{1!} = \frac{2 e^{-2}}{1} = 2e^{-2}$.
$P(X=2) = \frac{2^2 e^{-2}}{2!} = \frac{4 e^{-2}}{2} = 2e^{-2}$.
$P(X \le 2) = e^{-2} + 2e^{-2} + 2e^{-2} = 5e^{-2}$.
$P(X > 2) = 1 - P(X \le 2) = 1 - 5e^{-2}$.
En utilisant $e^{-2} \approx 0.1353$, $P(X > 2) \approx 1 - 5 \times 0.1353 = 1 - 0.6765 = 0.3235$.
Résultat : La probabilité de marquer exactement 3 buts est $\frac{4}{3} e^{-2} \approx 0.1804$. La probabilité de marquer plus de 2 buts est $1 - 5e^{-2} \approx 0.3235$.
Méthode : Identifier le paramètre $\lambda$ de la loi de Poisson. Utiliser la formule de la loi de Poisson pour calculer les probabilités demandées. Pour "plus de 2", penser à l'événement complémentaire si cela simplifie le calcul.
Comment ORBITECH Peut T'aider
ORBITECH AI Academy te propose un environnement d'apprentissage complet pour maîtriser les probabilités et les statistiques. Nos ressources sont conçues pour te guider pas à pas :
- Des modules interactifs expliquant chaque concept de manière visuelle et intuitive.
- Des milliers d'exercices corrigés, allant des bases aux problèmes les plus avancés.
- Des simulations de cas réels pour appliquer tes connaissances dans des contextes pratiques.
- Un suivi personnalisé de ta progression pour identifier tes points forts et tes axes d'amélioration.