Indépendance (probabilités)

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Indépendance.

Paire de dés : les résultats de chacun des dés sont indépendants.

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. Il s'agit d'une notion très importante en statistique et en théorie des probabilités.

Par exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer, le fait d'obtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair ou impair[1] : les deux événements sont dits indépendants.

L'indépendance ou non de deux événements n'est pas toujours facile à établir[Par exemple ?].

Indépendance de deux événements

La définition mathématique de l'indépendance de deux événements est la suivante :

Définition —  Soit ( X , A , P ) {\displaystyle (X,{\mathcal {A}},\mathbb {P} )} un espace de probabilité, et A , B A {\displaystyle A,B\in {\mathcal {A}}} deux événements. On dit que A {\displaystyle A} et B {\displaystyle B} sont indépendants lorsque P ( A B ) = P ( A ) P ( B ) . {\displaystyle \mathbb {P} (A\cap B)=\mathbb {P} (A)\mathbb {P} (B).}

La définition mathématique ci-dessus est assez peu parlante. Le lien entre le concept intuitif d'indépendance et la « formule produit » ci-dessus apparaît plus clairement si l'on introduit la notion de probabilité conditionnelle :

Définition — Si P ( B ) 0 , {\displaystyle \mathbb {P} (B)\neq 0,} la probabilité conditionnelle de A {\displaystyle A} sachant B {\displaystyle B} , notée P B ( A ) , {\displaystyle \mathbb {P} _{B}(A),} est définie par la relation ci-dessous :

P B ( A ) = P ( A B ) P ( B ) . {\displaystyle \mathbb {P} _{B}(A)={\mathbb {P} (A\cap B) \over \mathbb {P} (B)}.}

En excluant les cas particuliers peu intéressants où B {\displaystyle B} est impossible, i.e. dans le cas où P ( B ) = 0 , {\displaystyle \mathbb {P} (B)=0,} et où B {\displaystyle B} est certain, i.e. dans le cas où P ( B ) = 1 , {\displaystyle \mathbb {P} (B)=1,} on peut alors reformuler la définition de l'indépendance de la manière suivante

Proposition — Lorsque la probabilité de B {\displaystyle B} n'est ni nulle, ni égale à 1 {\displaystyle 1} , A {\displaystyle A} et B {\displaystyle B} sont indépendants si et seulement si l'une des conditions suivantes, toutes équivalentes, est remplie :

P B ( A )   =   P ( A ) , P B ¯ ( A )   =   P ( A ) , P B ( A )   =   P B ¯ ( A ) . {\displaystyle {\begin{aligned}\mathbb {P} _{B}(A)\ &=\ \mathbb {P} (A),\\\mathbb {P} _{\overline {B}}(A)\ &=\ \mathbb {P} (A),\\\mathbb {P} _{B}(A)\ &=\ \mathbb {P} _{\overline {B}}(A).\end{aligned}}}

Ainsi les événements A {\displaystyle A} et B {\displaystyle B} sont dits indépendants si notre pronostic sur l'événement A {\displaystyle A} est le même :

  • si on sait que l'événement B {\displaystyle B} s'est produit (pronostic P B ( A ) {\displaystyle \mathbb {P} _{B}(A)} ),
  • si on sait que l'événement B {\displaystyle B} ne s'est pas produit (pronostic P B ¯ ( A ) {\displaystyle \mathbb {P} _{\overline {B}}(A)} ),
  • si on ne sait rien sur le statut de l'événement B {\displaystyle B} (pronostic P ( A ) {\displaystyle \mathbb {P} (A)} ).

Autrement dit, A {\displaystyle A} est dit indépendant de B {\displaystyle B} si notre pronostic sur l'événement A {\displaystyle A} n'est affecté par aucune information concernant B {\displaystyle B} , ni par l'absence d'information concernant B {\displaystyle B} . On peut échanger les rôles de A {\displaystyle A} et de B {\displaystyle B} dans la définition utilisant les probabilités conditionnelles, à condition bien sûr d'exclure les cas particuliers peu intéressants où A {\displaystyle A} est impossible, et où A {\displaystyle A} est certain.

Bien que la définition utilisant les probabilités conditionnelles soit plus intuitive, elle a l'inconvénient d'être moins générale, et de ne pas faire jouer un rôle symétrique aux deux événements A {\displaystyle A} et B {\displaystyle B} .

Notons par ailleurs qu'un événement certain A {\displaystyle A} est indépendant de tout événement B {\displaystyle B} quel qu'il soit. Un événement impossible est également indépendant de tout autre événement. En particulier, un événement A {\displaystyle A} est indépendant de lui-même à la condition que A {\displaystyle A} soit certain, soit impossible. En effet, si l'événement A {\displaystyle A} est indépendant de lui-même, on peut écrire :

P ( A ) = P ( A A ) = P ( A ) P ( A ) , {\displaystyle \mathbb {P} (A)=\mathbb {P} (A\cap A)=\mathbb {P} (A)\mathbb {P} (A),\,}

et on en déduit que la probabilité de l'événement A {\displaystyle A} vaut soit 0 {\displaystyle 0} , soit 1 {\displaystyle 1} .

Indépendance d'un nombre quelconque d'événements

La notion d'indépendance peut être étendue à n {\displaystyle n} événements, via la notion d'indépendance des tribus, mais on va plutôt donner ici deux critères plus lisibles :

Critère 1 —  n {\displaystyle n} événements A 1 , A 2 , , A n {\displaystyle A_{1},A_{2},\dots ,A_{n}} sont dits indépendants si et seulement si, pour toute partie I { 1 , 2 , , n } , {\displaystyle I\subset \{1,2,\dots ,n\},} on a

P ( i I   A i )   =   i I   P ( A i ) . {\displaystyle \mathbb {P} \left(\bigcap _{i\in I}\ A_{i}\right)\ =\ \prod _{i\in I}\ \mathbb {P} (A_{i}).}

Le nombre total de conditions à vérifier est donc le nombre de parties I { 1 , 2 , , n } {\displaystyle I\subset \{1,2,\dots ,n\}} possédant au moins deux éléments, à savoir :

( n 2 ) + ( n 3 ) + + ( n n ) = 2 n ( n + 1 ) . {\displaystyle {n \choose 2}+{n \choose 3}+\cdots +{n \choose n}=2^{n}-(n+1).}

L'indépendance des n événements A 1 , A 2 , , A n {\displaystyle A_{1},A_{2},\dots ,A_{n}} entraîne que

P ( A 1 A n ) = P ( A 1 ) P ( A n ) , {\displaystyle \mathbb {P} (A_{1}\cap \cdots \cap A_{n})=\mathbb {P} (A_{1})\,\cdots \,\mathbb {P} (A_{n}),}

ce qui correspond au choix particulier I   = { 1 , 2 , , n } , {\displaystyle I\ =\{1,2,\dots ,n\},} mais est une propriété beaucoup plus faible que l'indépendance. Dans le même esprit, comme on le constate dans l'exemple ci-dessous, n {\displaystyle n} événements peuvent être indépendants deux à deux, ce qui correspond à vérifier la propriété pour toutes les parties I   { 1 , 2 , , n } {\displaystyle I\ \subset \{1,2,\dots ,n\}} à 2 éléments, sans pour autant être indépendants :

Exemple :

On lance deux dés et on pose

  • A 1 {\displaystyle A_{1}}  : le résultat du lancer du dé no 1 est pair,
  • A 2 {\displaystyle A_{2}}  : le résultat du lancer du dé no 2 est pair,
  • A 3 {\displaystyle A_{3}}  : la somme des résultats des 2 lancers est impaire.

On a

P ( A 1 A 2 A 3 )   =   0     1 8   =   P ( A 1 ) P ( A 2 ) P ( A 3 ) , {\displaystyle \mathbb {P} (A_{1}\cap A_{2}\cap A_{3})\ =\ 0\ \neq \ {\tfrac {1}{8}}\ =\ \mathbb {P} (A_{1})\mathbb {P} (A_{2})\mathbb {P} (A_{3}),}

alors que, pourtant, pour i j {\displaystyle i\neq j} choisis arbitrairement,

P ( A i ) = P ( A j ) = 1 2 et P ( A i A j ) = 1 4 . {\displaystyle \mathbb {P} (A_{i})=\mathbb {P} (A_{j})={\tfrac {1}{2}}\quad {\text{et}}\quad \mathbb {P} (A_{i}\cap A_{j})={\tfrac {1}{4}}.}

Critère 2 —  n {\displaystyle n} événements A 1 , A 2 , , A n {\displaystyle A_{1},A_{2},\dots ,A_{n}} sont dits indépendants si et seulement si, pour tout choix de ε { 0 , 1 } n , {\displaystyle \varepsilon \in \{0,1\}^{n},} on a

P ( i = 1 n   A i ε i )   =   i = 1 n   P ( A i ε i ) , {\displaystyle \mathbb {P} \left(\bigcap _{i=1}^{n}\ A_{i}^{\varepsilon _{i}}\right)\ =\ \prod _{i=1}^{n}\ \mathbb {P} (A_{i}^{\varepsilon _{i}}),}

où, par convention, A i 0 = A i ¯ , {\displaystyle A_{i}^{0}={\overline {A_{i}}},} et A i 1 = A i . {\displaystyle A_{i}^{1}=A_{i}.}

Indépendance des variables aléatoires

Définitions

Il y a plusieurs définitions équivalentes de l'indépendance d'une famille finie de variables aléatoires. On peut en particulier définir l'indépendance d'une famille de tribus, et voir ensuite l'indépendance des événements et l'indépendance des variables aléatoires comme des cas particuliers de l'indépendance des tribus. Cela permet de démontrer certains résultats généraux sur l'indépendance une seule fois, pour les tribus, puis de déduire immédiatement de ce résultat général la version « événements » et la version « variables aléatoires » (un exemple est le lemme de regroupement). Cependant, il est peut-être préférable de donner d'abord deux définitions de l'indépendance des variables aléatoires qui soient opératoires pour les applications, et quelques critères commodes.

Dans ce qui suit on considère une famille ( X 1 , X 2 , , X n ) {\displaystyle (X_{1},X_{2},\dots ,X_{n})} de variables aléatoires définies sur le même espace de probabilité ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} , mais éventuellement à valeurs dans des espaces différents : X i   :   ( Ω , A , P )     ( E i , E i ) , 1 i n . {\displaystyle X_{i}\ :\ (\Omega ,{\mathcal {A}},\mathbb {P} )\ \rightarrow \ (E_{i},{\mathcal {E}}_{i}),\quad 1\leq i\leq n.}

Définition —  ( X 1 , X 2 , , X n ) {\displaystyle (X_{1},X_{2},\dots ,X_{n})} est une famille de variables aléatoires indépendantes si l'une des deux conditions suivantes est remplie :[réf. nécessaire]

  • ( A 1 , , A n ) E 1 × × E n {\displaystyle \forall (A_{1},\dots ,A_{n})\in {\mathcal {E}}_{1}\times \dots \times {\mathcal {E}}_{n}} , P ( X 1 A 1  et  X 2 A 2  et  X n A n )   =   i = 1 n P ( X i A i ) , {\displaystyle \quad \mathbb {P} (X_{1}\in A_{1}{\text{ et }}X_{2}\in A_{2}\dots {\text{ et }}X_{n}\in A_{n})\ =\ \prod _{i=1}^{n}\mathbb {P} (X_{i}\in A_{i}),}
  • on a l'égalité E [ i = 1 n   φ i ( X i ) ]   =   i = 1 n E [ φ i ( X i ) ] , {\displaystyle \mathbb {E} \left[\prod _{i=1}^{n}\ \varphi _{i}(X_{i})\right]\ =\ \prod _{i=1}^{n}\mathbb {E} \left[\varphi _{i}(X_{i})\right],} pour n'importe quelle suite de fonctions φ i {\displaystyle \varphi _{i}} définies sur ( E i , E i ) , {\displaystyle (E_{i},{\mathcal {E}}_{i}),} à valeurs dans R , {\displaystyle \mathbb {R} ,} dès que les espérances ci-dessus ont un sens.

Les espérances ci-dessus ont un sens si les φ i {\displaystyle \varphi _{i}} sont mesurables, et si i = 1 n   φ i ( X i ) {\displaystyle \prod _{i=1}^{n}\ \varphi _{i}(X_{i})} est intégrable, ou si les φ i {\displaystyle \varphi _{i}} sont mesurables et positives ou nulles. Typiquement, dans les applications, ( E i , E i ) = ( R d i , B ( R d i ) ) . {\displaystyle (E_{i},{\mathcal {E}}_{i})=(\mathbb {R} ^{d_{i}},{\mathcal {B}}(\mathbb {R} ^{d_{i}})).} Dans le cas de deux variables aléatoires réelles cela donne :

Définition — Deux variables aléatoires réelles X {\displaystyle X} et Y {\displaystyle Y} sont indépendantes si l'une des deux conditions suivantes est remplie :

  • ( A , B ) B ( R ) 2 , P ( X A  et  Y B )   =   P ( X A )   P ( Y B ) , {\displaystyle \forall (A,B)\in {\mathcal {B}}(\mathbb {R} )^{2},\quad \mathbb {P} (X\in A{\text{ et }}Y\in B)\ =\ \mathbb {P} (X\in A)\ \mathbb {P} (Y\in B),}
  • pour tout couple de fonctions boréliennes g {\displaystyle g} et h , {\displaystyle h,} dès que les espérances ci-dessous ont un sens, on a E [ g ( X ) h ( Y ) ] = E [ g ( X ) ] E [ h ( Y ) ] . {\displaystyle \mathbb {E} \left[g(X)\cdot h(Y)\right]=\mathbb {E} [g(X)]\cdot \mathbb {E} [h(Y)].}

Les définitions précédentes traitent de familles finies de variables aléatoires, numérotées de 1 {\displaystyle 1} à n {\displaystyle n} par commodité, sans que cela restreigne la généralité des énoncés : en effet, on peut toujours numéroter de 1 {\displaystyle 1} à n {\displaystyle n} les éléments d'une famille finie de variables aléatoires. De plus, les définitions font jouer des rôles symétriques à chaque élément de la famille, si bien que le choix d'une numérotation ou d'une autre est sans effet sur la vérification de la définition.

L'indépendance d'une famille quelconque (éventuellement infinie) de variables aléatoires est la suivante :

Définition — Une famille quelconque ( X j ) j J {\displaystyle (X_{j})_{j\in J}} de variables aléatoires définies sur ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} est une famille de variables aléatoires indépendantes si et seulement si toute sous famille finie de ( X j ) j J {\displaystyle (X_{j})_{j\in J}} est une famille de variables aléatoires indépendantes (c'est-à-dire, si et seulement si, pour toute partie finie I {\displaystyle I} de J {\displaystyle J} , ( X i ) i I {\displaystyle (X_{i})_{i\in I}} est une famille de variables aléatoires indépendantes).

Cas des variables aléatoires à densité

Soit une famille ( X 1 , X 2 , , X n ) {\displaystyle (X_{1},X_{2},\dots ,X_{n})} de variables aléatoires réelles définies sur le même espace de probabilité ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} , et X = X 1 X n {\displaystyle X=X_{1}\dots X_{n}} leur produit.

Théorème — 

  • Si X {\displaystyle X} possède une densité de probabilité f : R n [ 0 , + [ {\displaystyle f:\mathbb {R} ^{n}\rightarrow [0,+\infty [} à variables séparées, i.e. qui s'écrit sous forme d'un produit de fonctions d'une variable:

x = ( x 1 , , x n ) R n , f ( x )   =   i = 1 n g i ( x i ) , {\displaystyle \forall x=(x_{1},\dots ,x_{n})\in \mathbb {R} ^{n},\qquad f(x)\ =\ \prod _{i=1}^{n}g_{i}(x_{i}),}

où les fonctions g i {\displaystyle g_{i}} sont boréliennes et positives ou nulles, alors les X i {\displaystyle X_{i}} sont indépendantes. De plus, la fonction f i {\displaystyle f_{i}} définie par f i ( x )   =   g i ( x ) R g i ( u ) d u {\displaystyle f_{i}(x)\ =\ {\frac {g_{i}(x)}{\int _{\mathbb {R} }g_{i}(u)du}}}

est une densité de probabilité de la variable aléatoire X i . {\displaystyle X_{i}.}

  • Réciproquement, si les X i {\displaystyle X_{i}} sont indépendantes, de densités de probabilité respectives f i , {\displaystyle f_{i},} alors X {\displaystyle X} possède une densité de probabilité, et la fonction f {\displaystyle f} définie par

( x 1 , , x n ) R n , f ( x 1 , , x n )   =   i = 1 n f i ( x i ) , {\displaystyle \forall (x_{1},\dots ,x_{n})\in \mathbb {R} ^{n},\qquad f(x_{1},\dots ,x_{n})\ =\ \prod _{i=1}^{n}f_{i}(x_{i}),} est une densité de probabilité de X . {\displaystyle X.}

Démonstration dans le cas de deux variables

Sens direct.

Comme f ( x 1 , x 2 ) = g 1 ( x 1 ) g 2 ( x 2 ) {\displaystyle f(x_{1},x_{2})=g_{1}(x_{1})g_{2}(x_{2})} est à variables séparées, on a, par le Théorème de Fubini

1 = R 2 f ( x 1 , x 2 ) d x 1 d x 2 = R 2 g 1 ( x 1 ) g 2 ( x 2 ) d x 1 d x 2 = ( g 1 ( x 1 ) d x 1 ) ( g 2 ( x 2 ) d x 2 ) {\displaystyle {\begin{aligned}1&=\int _{\mathbb {R} ^{2}}f(x_{1},x_{2})\,dx_{1}\,dx_{2}\\&=\int _{\mathbb {R} ^{2}}g_{1}(x_{1})g_{2}(x_{2})\,dx_{1}\,dx_{2}\\&=\left(\int g_{1}(x_{1})\,dx_{1}\right)\left(\int g_{2}(x_{2})\,dx_{2}\right)\end{aligned}}}

et

f ( x 1 , x 2 ) = g 1 ( x 1 ) g 2 ( x 2 ) = g 1 ( x 1 ) R g 1 ( u ) d u   g 2 ( x 2 ) R g 2 ( v ) d v = f 1 ( x 1 ) f 2 ( x 2 ) . {\displaystyle {\begin{aligned}f(x_{1},x_{2})&=g_{1}(x_{1})\,g_{2}(x_{2})\\&={\frac {g_{1}(x_{1})}{\int _{\mathbb {R} }g_{1}(u)du}}\ {\frac {g_{2}(x_{2})}{\int _{\mathbb {R} }g_{2}(v)dv}}\\&=f_{1}(x_{1})\,f_{2}(x_{2}).\end{aligned}}}

Par construction les fonctions f i {\displaystyle f_{i}} sont d'intégrale 1, donc

R f ( x 1 , x 2 ) d x 2 = f 1 ( x 1 ) , R f ( x 1 , x 2 ) d x 1 = f 2 ( x 2 ) . {\displaystyle {\begin{aligned}\int _{\mathbb {R} }f(x_{1},x_{2})dx_{2}&=f_{1}(x_{1}),\\\int _{\mathbb {R} }f(x_{1},x_{2})dx_{1}&=f_{2}(x_{2}).\end{aligned}}}

Ainsi les fonctions f i {\displaystyle f_{i}} sont les densités de probabilités marginales des deux composantes de X . {\displaystyle X.} Par suite, pour tout couple de fonctions φ {\displaystyle \varphi } et ψ {\displaystyle \psi } tel que le premier terme ci-dessous ait un sens, on a

E [ φ ( X 1 ) ψ ( X 2 ) ] = φ ( x 1 ) ψ ( x 2 ) f ( x 1 , x 2 ) d x 1 d x 2 = φ ( x 1 ) f 1 ( x 1 ) ψ ( x 2 ) f 2 ( x 2 ) d x 1 d x 2 = φ ( x 1 ) f 1 ( x 1 ) d x 1 ψ ( x 2 ) f 2 ( x 2 ) d x 2 = E [ φ ( X 1 ) ] E [ ψ ( X 2 ) ] {\displaystyle {\begin{aligned}\operatorname {E} [\varphi (X_{1})\psi (X_{2})]&=\int \int \varphi (x_{1})\psi (x_{2})f(x_{1},x_{2})\,dx_{1}\,dx_{2}\\&=\int \int \varphi (x_{1})f_{1}(x_{1})\psi (x_{2})f_{2}(x_{2})\,dx_{1}\,dx_{2}\\&=\int \varphi (x_{1})f_{1}(x_{1})\,dx_{1}\int \psi (x_{2})f_{2}(x_{2})\,dx_{2}\\&=\operatorname {E} [\varphi (X_{1})]\operatorname {E} [\psi (X_{2})]\end{aligned}}}

ce qui entraine l'indépendance des variables X 1 {\displaystyle X_{1}} et X 2 . {\displaystyle X_{2}.}

Sens réciproque. Il suffit de montrer que

A B ( R 2 ) , P X ( A ) = μ ( A ) , {\displaystyle \forall A\in {\mathcal {B}}(\mathbb {R} ^{2}),\quad \mathbb {P} _{X}(A)=\mu (A),}

P X {\displaystyle \mathbb {P} _{X}} est la loi de X , {\displaystyle X,} et où μ {\displaystyle \mu } est la mesure ayant pour densité ( x 1 , x 2 ) f 1 ( x 1 ) f 2 ( x 2 ) . {\displaystyle (x_{1},x_{2})\rightarrow f_{1}(x_{1})f_{2}(x_{2}).} Or

A C , P X ( A ) = μ ( A ) , {\displaystyle \forall A\in {\mathcal {C}},\quad \mathbb {P} _{X}(A)=\mu (A),}

C {\displaystyle {\mathcal {C}}} est la classe des pavés boréliens :

C   =   { A 1 × A 2   |   A i B ( R ) , i { 1 , 2 } } . {\displaystyle {\mathcal {C}}\ =\ \{A_{1}\times A_{2}\ |\ A_{i}\in {\mathcal {B}}(\mathbb {R} ),i\in \{1,2\}\}.}

En effet

P X ( A 1 × A 2 ) = P ( X 1 A 1  et  X 2 A 2 ) = P ( X 1 A 1 ) P ( X 2 A 2 ) = ( R 1 A 1 ( x 1 ) f 1 ( x 1 ) d x 1 ) ( R 1 A 2 ( x 2 ) f 2 ( x 2 ) d x 2 ) = R 2 1 A 1 × A 2 ( x 1 , x 2 ) f 1 ( x 1 ) f 2 ( x 2 ) d x 1 d x 2 = μ ( A 1 × A 2 ) . {\displaystyle {\begin{aligned}\mathbb {P} _{X}(A_{1}\times A_{2})&=\mathbb {P} (X_{1}\in A_{1}{\text{ et }}X_{2}\in A_{2})\\&=\mathbb {P} (X_{1}\in A_{1})\mathbb {P} (X_{2}\in A_{2})\\&=\left(\int _{\mathbb {R} }1_{A_{1}}(x_{1})f_{1}(x_{1})\,dx_{1}\right)\left(\int _{\mathbb {R} }1_{A_{2}}(x_{2})f_{2}(x_{2})\,dx_{2}\right)\\&=\int _{\mathbb {R} ^{2}}1_{A_{1}\times A_{2}}(x_{1},x_{2})f_{1}(x_{1})f_{2}(x_{2})\,dx_{1}\,dx_{2}\\&=\mu (A_{1}\times A_{2})\end{aligned}}.}

On remarque alors que C {\displaystyle {\mathcal {C}}} est un π-système et que la tribu engendrée par C {\displaystyle {\mathcal {C}}} est B ( R 2 ) , {\displaystyle {\mathcal {B}}(\mathbb {R} ^{2}),} donc, en vertu du lemme d'unicité des mesures de probabilités,

A B ( R 2 ) , P X ( A ) = μ ( A ) . {\displaystyle \forall A\in {\mathcal {B}}(\mathbb {R} ^{2}),\quad \mathbb {P} _{X}(A)=\mu (A).}

Cas des variables discrètes

Dans le cas des variables discrètes, un critère d'indépendance utile est le suivant :

Cas discret — Soit X = ( X 1 , X 2 , , X n ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} une suite de variables aléatoires discrètes, et soit ( S 1 , S 2 , , S n ) {\displaystyle (S_{1},S_{2},\dots ,S_{n})} une suite d'ensembles finis ou dénombrables tels que, pour tout i n {\displaystyle i\leq n} , P ( X i S i ) = 1. {\displaystyle \mathbb {P} (X_{i}\in S_{i})=1.} Alors la famille ( X 1 , X 2 , , X n ) {\displaystyle (X_{1},X_{2},\dots ,X_{n})} est une suite de variables aléatoires indépendantes si, pour tout x = ( x 1 , x 2 , , x n ) i = 1 n S i , {\displaystyle x=(x_{1},x_{2},\dots ,x_{n})\in \prod _{i=1}^{n}\,S_{i},}

P ( X = x )   =   i = 1 n P ( X i = x i ) . {\displaystyle \mathbb {P} \left(X=x\right)\ =\ \prod _{i=1}^{n}\,\mathbb {P} \left(X_{i}=x_{i}\right).}
Loi uniforme sur un produit cartésien :
  • Soit ( E 1 , E 2 , , E n ) {\displaystyle (E_{1},E_{2},\dots ,E_{n})} une suite d'ensembles finis, de cardinaux respectifs # E i {\displaystyle \#E_{i}} , et soit X = ( X 1 , X 2 , , X n ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} une variable aléatoire uniforme à valeurs dans le produit cartésien :
E   =   E 1 × E 2 × E 3 ×     × E n . {\displaystyle E\ =\ E_{1}\times E_{2}\times E_{3}\times \ \dots \ \times E_{n}.}

Alors la suite X {\displaystyle X} est une suite de variables aléatoires indépendantes, et, pour chaque i {\displaystyle i} , la variable aléatoire X i {\displaystyle X_{i}} suit la loi uniforme sur E i {\displaystyle E_{i}} . En effet, considérons une suite Y = ( Y i ) i i n {\displaystyle Y=(Y_{i})_{i\leq i\leq n}} de variables aléatoires indépendantes, chaque Y i {\displaystyle Y_{i}} étant uniforme sur l'ensemble E i {\displaystyle E_{i}} correspondant. Alors, pour tout élément x = ( x i ) 1 i n {\displaystyle x=(x_{i})_{1\leq i\leq n}} de E {\displaystyle E} ,

P ( X = x ) = 1 # E = i = 1 n 1 # E i = i = 1 n P ( Y i = x i ) = P ( Y = x ) , {\displaystyle {\begin{aligned}\mathbb {P} \left(X=x\right)&={\frac {1}{\#E}}\\&=\prod _{i=1}^{n}{\frac {1}{\#E_{i}}}\\&=\prod _{i=1}^{n}\,\mathbb {P} \left(Y_{i}=x_{i}\right)\\&=\mathbb {P} \left(Y=x\right),\end{aligned}}}

la deuxième égalité résultant de la formule donnant le nombre d'éléments d'un produit cartésien d'ensembles, la 4e de l'indépendance des Y i {\displaystyle Y_{i}} , les autres égalités résultant de la définition de la loi uniforme. Ainsi les suites X {\displaystyle X} et Y {\displaystyle Y} ont même loi, ce qui entraîne bien que X {\displaystyle X} est une suite de variables aléatoires indépendantes dont les composantes suivent des lois uniformes.

Autres critères d'indépendance

Par exemple,

Critères — Soit X {\displaystyle X} et Y {\displaystyle Y} deux variables aléatoires réelles définies sur un espace probabilisé ( Ω , A , P ) . {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ).}

  • Si, pour tout couple ( x , y ) {\displaystyle (x,y)} de nombres réels,
P ( X x  et  Y y )   =   P ( X x ) × P ( Y y ) , {\displaystyle \mathbb {P} \left(X\leq x{\text{ et }}Y\leq y\right)\ =\ \mathbb {P} \left(X\leq x\right)\times \mathbb {P} \left(Y\leq y\right),}

alors X {\displaystyle X} et Y {\displaystyle Y} sont indépendantes.

  • Si Y {\displaystyle Y} est à valeurs dans N , {\displaystyle \mathbb {N} ,} et si, pour tout couple ( x , n ) R × N , {\displaystyle (x,n)\in \mathbb {R} \times \mathbb {N} ,}
P ( X x  et  Y = n )   =   P ( X x ) × P ( Y = n ) , {\displaystyle \mathbb {P} \left(X\leq x{\text{ et }}Y=n\right)\ =\ \mathbb {P} \left(X\leq x\right)\times \mathbb {P} \left(Y=n\right),}

alors X {\displaystyle X} et Y {\displaystyle Y} sont indépendantes.

  • Bien sûr, si X {\displaystyle X} et Y {\displaystyle Y} sont à valeurs dans N {\displaystyle \mathbb {N} } et si, pour tout couple ( m , n ) N 2 , {\displaystyle (m,n)\in \mathbb {N} ^{2},}
P ( X = m  et  Y = n )   =   P ( X = m ) × P ( Y = n ) , {\displaystyle \mathbb {P} \left(X=m{\text{ et }}Y=n\right)\ =\ \mathbb {P} \left(X=m\right)\times \mathbb {P} \left(Y=n\right),}

alors X et Y sont indépendantes.

Par exemple, on peut utiliser le deuxième critère pour démontrer que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations.

On peut généraliser ces critères d'indépendance à des familles finies quelconques de variables aléatoires réelles, dont certaines, éventuellement, sont des variables discrètes, à valeurs dans des parties finies ou dénombrables de ℝ éventuellement différentes de N {\displaystyle \mathbb {N} } . Une démonstration de ces critères se trouve à la page « Lemme de classe monotone ».

Indépendance et corrélation

L'indépendance implique que la covariance, et donc la corrélation, entre les deux variables est nulle:

Théorème — X et Y sont indépendantes Cov ( X , Y ) = Corr ( X , Y ) = 0 {\displaystyle \Rightarrow \operatorname {Cov} (X,Y)=\operatorname {Corr} (X,Y)=0}

Démonstration
Cette propriété se déduit très facilement si l'on exprime la covariance comme : cov ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) {\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)} . Comme on l'a vu, l'indépendance de X {\displaystyle X} et Y {\displaystyle Y} entraîne que E ( X Y ) = E ( X ) E ( Y ) {\displaystyle \operatorname {E} (XY)=\operatorname {E} (X)\operatorname {E} (Y)} , donc
cov ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) = E ( X ) E ( Y ) E ( X ) E ( Y ) = 0. {\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)=\operatorname {E} (X)E(Y)-\operatorname {E} (X)\operatorname {E} (Y)=0.}

La réciproque du théorème est fausse, comme le montre l'exemple suivant :

Exemple :

Cet exemple est tiré de Ross (2004, p. 306)

  • Soit X une variable aléatoire discrète telle que P ( X = 0 ) = P ( X = 1 ) = P ( X = 1 ) = 1 3 {\displaystyle \mathbb {P} (X=0)=\mathbb {P} (X=1)=\mathbb {P} (X=-1)={\frac {1}{3}}} .
  • Définissons Y en relation avec X : { 0 si  X 0 1 si  X = 0 {\displaystyle {\begin{cases}0&{\text{si }}X\neq 0\\1&{\text{si }}X=0\\\end{cases}}}
  • On calcule E [ X Y ] = 1 3 ( 0 1 ) + 1 3 ( 1 0 ) + 1 3 ( 1 0 ) = 0 {\displaystyle \operatorname {E} [XY]={\frac {1}{3}}(0\cdot 1)+{\frac {1}{3}}(1\cdot 0)+{\frac {1}{3}}(-1\cdot 0)=0} .
  • On voit aussi que E [ X ] = 1 3 ( 0 ) + 1 3 ( 1 ) + 1 3 ( 1 ) = 0 + 1 1 = 0 {\displaystyle \operatorname {E} [X]={\frac {1}{3}}(0)+{\frac {1}{3}}(1)+{\frac {1}{3}}(-1)=0+1-1=0} .
  • donc : cov ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) = 0 0 = 0 {\displaystyle \operatorname {cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)=0-0=0} .
  • Pourtant les deux variables ne sont bien évidemment pas indépendantes !

La non-corrélation entre X {\displaystyle X} et Y {\displaystyle Y} est une propriété plus faible que l'indépendance. En fait l'indépendance entre X {\displaystyle X} et Y {\displaystyle Y} est équivalente à la non-corrélation de φ ( X ) {\displaystyle \varphi (X)} et de ψ ( Y ) {\displaystyle \psi (Y)} pour tout choix de φ {\displaystyle \varphi } et de ψ {\displaystyle \psi } (tels que la covariance de φ ( X ) {\displaystyle \varphi (X)} avec ψ ( x ) {\displaystyle \psi (x)} soit définie…).

Indépendance des tribus

Définition — Dans un espace probabilisé ( Ω , A , P ) , {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ),}

  • une famille finie ( A i ) i I {\displaystyle ({\mathcal {A}}_{i})_{i\in I}} de tribus incluses dans A {\displaystyle {\mathcal {A}}} est une famille de tribus indépendantes si et seulement si
( A i ) i I i I A i , P ( i I A i ) =   i I   P ( A i ) . {\displaystyle \forall (A_{i})_{i\in I}\in \prod _{i\in I}{\mathcal {A}}_{i},\qquad \mathbb {P} \left(\bigcap _{i\in I}A_{i}\right)=\ \prod _{i\in I}\ \mathbb {P} (A_{i}).}
  • une famille quelconque ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} de tribus incluses dans A {\displaystyle {\mathcal {A}}} est une famille de tribus indépendantes si et seulement si toute sous famille finie de ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} est une famille de tribus indépendantes (c'est-à-dire, si et seulement si, pour toute partie finie I de J, ( A i ) i I {\displaystyle ({\mathcal {A}}_{i})_{i\in I}} est une famille de tribus indépendantes).

Lien avec l'indépendance des événements

Définition —  Une famille ( A j ) j J {\displaystyle (A_{j})_{j\in J}} d'événements (c'est-à-dire d'éléments de A {\displaystyle {\mathcal {A}}} ) est une famille d'événements indépendants si et seulement si ( σ ( A j ) ) j J {\displaystyle \left(\sigma (A_{j})\right)_{j\in J}} est une famille de tribus indépendantes.

Comme la tribu σ ( A ) {\displaystyle \sigma ({A})} engendrée par A {\displaystyle A} est décrite par :

σ ( A )   =   { A , A ¯ , Ω , } , {\displaystyle \sigma (A)\ =\ \left\{A,{\overline {A}},\Omega ,\emptyset \right\},}

la définition donnée dans cette section pour une famille quelconque d'événements, une fois particularisée à une famille de n {\displaystyle n} événements, apparaît comme plus forte que les deux critères donnés plus haut. En effet, pour un choix approprié des événements B i {\displaystyle B_{i}} dans la définition

{ ( B i ) 1 i n i = 1 n σ ( A i ) , P ( i = 1 n B i ) =   i = 1 n   P ( B i ) } , {\displaystyle \left\{\forall (B_{i})_{1\leq i\leq n}\in \prod _{i=1}^{n}\sigma ({A}_{i}),\qquad \mathbb {P} \left(\bigcap _{i=1}^{n}B_{i}\right)=\ \prod _{i=1}^{n}\ \mathbb {P} (B_{i})\right\},}

donnée dans cette section, on retrouve le critère 1 (choisir tantôt Ω , {\displaystyle \Omega ,} tantôt A i {\displaystyle A_{i}} dans σ ( A i ) {\displaystyle \sigma ({A}_{i})} ) et le critère 2 (choisir tantôt A i , {\displaystyle A_{i},} tantôt A i ¯ {\displaystyle {\overline {A_{i}}}} dans σ ( A i ) {\displaystyle \sigma ({A}_{i})} ). Pourtant les critères 1 et 2 sont effectivement équivalents à la définition via les tribus, donnée dans cette section, mais cela mérite démonstration.

Lien avec l'indépendance des variables aléatoires

Définition —  Une famille ( X j ) j J {\displaystyle (X_{j})_{j\in J}} de variables aléatoires définies sur ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} est une famille de variables aléatoires indépendantes si et seulement si ( σ ( X j ) ) j J {\displaystyle \left(\sigma (X_{j})\right)_{j\in J}} est une famille de tribus indépendantes.

Comme la tribu σ ( X ) {\displaystyle \sigma (X)} engendrée par une variable aléatoire X , {\displaystyle X,} définie de ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} dans ( E , E ) , {\displaystyle (E,{\mathcal {E}}),} est définie par :

σ ( X )   =   { X 1 ( B )   |   B E } , {\displaystyle \sigma (X)\ =\ \left\{X^{-1}(B)\ \left|\ B\in {\mathcal {E}}\right.\right\},}

la définition donnée dans cette section pour une famille quelconque de variables aléatoires, une fois particularisée à une famille de n {\displaystyle n} variables aléatoires, est clairement équivalente à la définition de la section Indépendance des variables aléatoires. En effet

P ( X 1 A 1  et  X 2 A 2  et   et  X n A n ) {\displaystyle \mathbb {P} \left(X_{1}\in A_{1}{\text{ et }}X_{2}\in A_{2}{\text{ et }}\dots {\text{ et }}X_{n}\in A_{n}\right)}

est une notation pour

P ( i = 1 n X i 1 ( A i ) ) , {\displaystyle \mathbb {P} \left(\bigcap _{i=1}^{n}X_{i}^{-1}(A_{i})\right),}

et

P ( X i A i ) {\displaystyle \mathbb {P} \left(X_{i}\in A_{i}\right)}

est une notation pour

P ( X i 1 ( A i ) ) . {\displaystyle \mathbb {P} \left(X_{i}^{-1}(A_{i})\right).}

Propriétés élémentaires

Propriétés — 

  • Une sous-famille d'une famille de tribus indépendantes est une famille de tribus indépendantes : si la famille ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} est une famille de tribus indépendantes et si I J , {\displaystyle I\subset J,} alors ( A i ) i I {\displaystyle ({\mathcal {A}}_{i})_{i\in I}} est une famille de tribus indépendantes.
  • Si, pour tout j J , {\displaystyle j\in J,} la tribu B j {\displaystyle {\mathcal {B}}_{j}} est incluse dans la tribu A j , {\displaystyle {\mathcal {A}}_{j},} et si la famille ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} est une famille de tribus indépendantes, alors la famille ( B j ) j J {\displaystyle ({\mathcal {B}}_{j})_{j\in J}} est une famille de tribus indépendantes.

Pour démontrer le premier point on applique la définition de l'indépendance à la famille ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} en spécialisant à une famille ( A j ) j J {\displaystyle (A_{j})_{j\in J}} d'événements telle que j J I , A j = Ω . {\displaystyle \forall j\in J\backslash I,\quad A_{j}=\Omega .} Le second point est immédiat : il suffit d'écrire la définition de l'indépendance de la famille ( B j ) j J . {\displaystyle ({\mathcal {B}}_{j})_{j\in J}.}

Lemme de regroupement (ou lemme des coalitions)

Article détaillé : lemme de regroupement.

Lemme de regroupement — Dans un espace probabilisé ( Ω , A , P ) , {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} ),} soit une famille quelconque ( A j ) j J {\displaystyle ({\mathcal {A}}_{j})_{j\in J}} de tribus indépendantes incluses dans A . {\displaystyle {\mathcal {A}}.} Soit une partition P = ( P i ) i I {\displaystyle {\mathcal {P}}=(P_{i})_{i\in I}} de J . {\displaystyle J.} Notons

B i = j P i   A j {\displaystyle {\mathcal {B}}_{i}=\mathop {\bigvee } _{j\in P_{i}}\ {\mathcal {A}}_{j}}

la tribu engendrée par

j P i   A j . {\displaystyle \bigcup _{j\in P_{i}}^{}\ {\mathcal {A}}_{j}.}

Alors la famille ( B i ) i I {\displaystyle ({\mathcal {B}}_{i})_{i\in I}} est une famille de tribus indépendantes.

Applications :

Le lemme de regroupement est utilisé, en probabilités, très souvent et de manière quasi-inconsciente. Citons quelques exemples :

De manière plus élémentaire,

  • dans le cas fini, si ( X 1 , X 2 , X 3 , X 4 , X 5 ) {\displaystyle (X_{1},X_{2},X_{3},X_{4},X_{5})} est une famille de variables indépendantes, et si f {\displaystyle f} et g {\displaystyle g} sont deux fonctions quelconques (mesurables), alors, par application du lemme de regroupement, f ( X 2 , X 3 , X 5 ) {\displaystyle f(X_{2},X_{3},X_{5})} et g ( X 1 , X 4 ) {\displaystyle g(X_{1},X_{4})} sont deux variables indépendantes, car { 2 , 3 , 5 } {\displaystyle \{2,3,5\}} et { 1 , 4 } {\displaystyle \{1,4\}} forment une partition de { 1 , 2 , 3 , 4 , 5 } {\displaystyle \{1,2,3,4,5\}} .

Indépendance et information

Une autre façon d'appréhender cette notion d'indépendance entre deux événements est de passer par l'information (au sens de la théorie de l'information) : deux événements sont indépendants si l'information fournie par le premier événement ne donne aucune information sur le deuxième événement.

Soit à tirer deux boules (rouge et blanche) d'une urne. Si on réalise l'expérience sans remettre la boule tirée dans l'urne, et que la première boule tirée est rouge, on peut déduire de cette information que la deuxième boule tirée sera blanche. Les deux événements ne sont donc pas indépendants.

Par contre, si on remet la première boule dans l'urne avant un deuxième tirage, l'information du premier événement (la boule est rouge) ne nous donne aucune information sur la couleur de la deuxième boule. Les deux événements sont donc indépendants.

Cette approche est notamment utilisée en analyse en composantes indépendantes.

Notes et références

  1. En effet P ( x mod 2 = 0 | x { 1 , 2 , 3 , 4 } ) = 1 2 = P ( x mod 2 = 0 | x { 1 , 2 , 3 , 4 , 5 , 6 } ) {\displaystyle \mathbb {P} (x\mod 2=0|x\in \{1,2,3,4\})={\frac {1}{2}}=\mathbb {P} (x\mod 2=0|x\in \{1,2,3,4,5,6\})}

Voir aussi

Bibliographie

  • T.-A. Banh, Calcul des probabilités, Ed. ULg, 1995.
  • A. Hyvärinen, E. Oja, Independent Component Analysis, Neural Networks, 13(4-5):411-430, 2000.
  • Sheldon M Ross, Initiation Aux Probabilités, Lausanne, Presses polytechniques et universitaires romandes, , Trad. de la 4e éd. américaine éd., p. 458
  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Articles connexes

v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique