Plusieurs variables aléatoires

Table des matières

1.Résultats de cours 2

1.1.Résultats toujours vrais 2

1.2.Résultats vrais lorsque X et Y indépendantes 2

2.Variables liées entre elles 2

3.Covariance 3

3.1.Résultats de base 3

3.2.Exercices 3

3.3.Produit scalaire 3

3.3.1.Rappels de cours 3

3.3.2.Exercices 4

4.Plusieurs lois géométriques 4

4.1.Deux lois géométriques 4

4.2.n lois géométriques 5

5.Plusieurs lois de Poisson 5

5.1.Deux lois de Poisson 6

5.2.n lois de Poisson 6

5.3.Combinaisons particulières 7

6.Mélange de lois 7

6.1.Une binomiale et une Poisson 7

6.2.Deux uniformes 8

6.3.Une binomiale sur une uniforme 8

6.4.Deux binomiales 8

1.Résultats de cours

1.1.Résultats toujours vrais

  1. E(aX+bY)=aE(X)+bE(Y)

  2. V(aX)=a2V(X)

1.2.Résultats vrais lorsque X et Y indépendantes

  1. V(X+Y)=V(X)+V(Y).

    contre exemple dans le cas X et Y dépendants : prendre Y=-X.

  2. E(XY)=E(X)E(Y)

    contre exemple dans le cas X et Y dépendants : prendre Y=X.

    Preuve : E(XY)=i,jxiyjp(X=xiY=yj)=i,jxiyjp(X=xi)×p(Y=yj)=ixip(X=xi)×jyjp(Y=yj)=E(X)E(Y).

2.Variables liées entre elles

  1. Somme de deux variables

    1. Quel est l'autre nom de la loi B(m=1;p=12) ?

    2. On donne Z,T des variables aléatoires indépendantes avec :

      ZB(n,12) n T=aX+b a,b

      Peut-on trouver n,a,b tels que { 𝔼(Z)=𝔼(T) et V(Z)=V(T) . ? (

      Réponse { n a=nou-n b=a2-2a ..

  2. X suit la loi B(2n,p)n et p<]0;1[. On demande l'espérance de Y=X2.

    Réponse :

    𝔼(Y) = u=02nup(Y=u) = u=0nup(X=2u ou X=2u+1) = 12u=0n(2u)p(X=2u)+12u=0n-1(2u+1)p(X=2u+1)-12u=0n-1p(X=2u+1) = 12𝔼(X)-12p(X impair)1/2 = 12(𝔼(X)-12) .

  3. On donne :

    A à valeurs uniformes dans [|-10;10|]

    B à valeurs uniformes dans {A-32;A+32}[|-10;10|].

    Donner la loi de B.

    Image :

    Figure 1.

3.Covariance

3.1.Résultats de base

3.2.Exercices

  1. Montrer que V(X+Y)=V(X)+V(Y)+2Cov(X,Y).

  2. Démontrer que Cov(X,Y)=E((X-μ)(Y-μ')) où l'on note {

    μ=E(X)
    μ'=E(Y)
    ..

    C'est une généralisation de V(X)=E((X-μ)2).

    Image : si X et Y sont « en même temps » au-dessus de leur espérance, alors Cov(X,Y)>0.

  3. Soient X,Y de Bernoulli vérifiant Cov(X,Y)=0. Alors X,Y indépendantes.

    Preuve : il suffit d'étudier les quatre cas :

    Si XB(p) et YB(p') alors Cov(X,Y)=0 implique E(XY)=pp', on a donc p(X=1Y=1)=p(X=1)×p(Y=1), et on recommence en utilisant le fait que Cov(1-X,Y)=Cov(X,1-Y)=cov(1-X,1-Y)=0.

3.3.Produit scalaire

3.3.1.Rappels de cours

(X,Y)cov(X,Y) peut donc définir un produit scalaire dont la norme associée est :

||X||=(X,X)=cov(X,X)=V(X).

Preuve :

V(X+Y)=V(X)+V(Y)+2Cov(X,Y) donc

Cov(X,Y)=12(V(X+Y)-V(X)-V(Y))
, on reconnaît l'expression d'un produit scalaire.

3.3.2.Exercices

  1. (X,Y) un couple de variables aléatoires réelles. Montrer que :

    |cov(X,Y)|V(X)V(Y).

    Réponse : On écrit que V(X+λY)0 pour toute valeur de λ, et c'est un exercice de second degré. En fait, c'est une variante de |x,y|||x||×||y||.

4.Plusieurs lois géométriques

Si XG(p) alors Ω(X)={1;2;3;} et pour tout k1 : p(X=k)=qk-1p.

4.1.Deux lois géométriques

X,Y indépendantes suivent G(p) avec p]0,1[ ; on pose q=1-p.

Vérification : On fait la double somme, ou trouve 1 :

1(p2q2-2+k=1-12p2qk+-2) = 0(p2q2+k=0-12p2qk+) = 0(p2q2+2p2q1-q1-q) = 0(p2q2+2pq(1-q)) = 0(p2q2+2pq-2pq2) = p1+q+2-21+q. = 1.

En fait la vérification peut se faire directement par un principe de double somme, cliquer sur le point : .

Lois de U et de V

p(U=k)=p(X=Y=k)+p(X=k)×p(Y>k)+p(Y=k)×p(X>k), on trouve donc :

p(U=k) = p2q2k-2+2p2qk-1(qk+qk+1+) = p2q2k-2+2pq2k-1 = pq2k-2(p+2q) = pq2k-2(1+q)

de même : p(V=k)=p(X=Y=k)+p(X=k)×p(Y<k)+p(Y=k)×p(X<k) donc :

p(V=k) = p2q2k-2+2p2qk-1(1+q+q2++qk-2) = p2q2k-2+2pqk-1(1-qk-1) = pqk-1(pqk-1+2(1-qk-1)) = pqk-1(2-qk-1-qk).

Autre méthode : p(U=k)=kp((U,V)=(k,)).

Remarque 1. On ne peut pas espérer vérifier nos résultats en calculant d'un côté p((U,V)=(k,)) et de l'autre p(U=k)×p(V=), car U et V ne sont pas du tout indépendants.

Loi de W=|X-Y|
Loi de Z=X+Y

Z(Ω)={2;3;} et l'on a simplement :

p(X+Y=k) = j=1k-1p(X=j)×p(Y=k-j) = j=1k-1(pqj-1)×(pqk-j-1) = p2qk-2(k-1)

4.2.n lois géométriques

X1,X2,,Xn mutuellement indépendantes suivent G(p) avec p]0,1[ ; on pose q=1-p.

Loi de Zn=X1++Xn

On a Zn(Ω)={n,n+1,} puis p(Zn=k)=( k-1 n-1 )pnqk-n. Cela se démontre simplement par récurrence sur n.

Loi de U=Min(X1,,Xn) et de V=Max(X1,,Xn)

On a :

p(U=k) = p(X1,,Xnk)-p(X1,,Xn>k) = (p(qk-1+qk+))n-(p(qk+qk+1+))n = qkn-n-qkn = q(k-1)n(1-qn),

et :

p(V=k) = p(X1,,Xnk)-p(X1,,Xn<k) (p(1+q++qk-1))n-(p(1+q++qk-2))n qk-1(1-q)(2-qk-qk-1).

4.3.Deux lois « presque » géométriques

banque CCP 2018 exo 106

Soient X et Y deux variables aléatoires indépendantes et à valeurs dans , qui suivent la même loi définie par : k,P(X=k)=P(Y=k)=pqk, où p]0,1[ et q=1p.

On considère alors les variables U et V définies par U=max(X,Y) et V=min(X,Y).

1) Déterminer la loi du couple (U,V).

2) Déterminer les lois marginales de U et de V.

Réponse : V(Ω)= et n,P(V=n)=pq2n(1+q).

3) Prouver que W=V+1 suit une loi géométrique. En déduire l'espérance de V.

4) U et V sont-elles indépendantes ?

non

5.Plusieurs lois de Poisson

Note 2. Si XP(λ) alors Ω(X)={0;1;2;3;} et pour tout k0 : p(X=k)=e-λλkk!.

5.1.Deux lois de Poisson

X,Y indépendantes suivent P(λ) avec l>0.

Vérification : pour la double somme, aucun besoin de calculer explicitement car :

k,0p((U,V)=(k,)) = k<(p(X=)×p(Y=k)+p(X=k)×p(Y=))+k(p(X=k))2 = k(p(X=)×p(Y=k))+k(p(X=k))2 = k,(p(X=)×p(Y=k)) = p(X=)kp(Y=k) = 1
Lois de U et de V

Pas facile à simplifier, on trouve p(U=k)=e-2λλkk!(λkk!+2i>kλii!).

Et p(U=k)=e-2λλkk!(λkk!+2i<kλii!).

Loi de Z=X+Y

On a

p(X+Y=k) = j=0kp(X=j)p(Y=k-j) = j=0ke-λλjj!e-λλk-jk-j! = e-2λλkk!j=0k( k j ) = e-2λ(2λ)kk!,

donc X+Y suit tout simplement la loi P(2λ).

Loi de Z'=X'+Y'

On prend cette fois-ci des paramètres différents, X'P(λ) et Y'P(μ), on montre sans peine que Z' suit la loi P(λ+μ).

5.2.n lois de Poisson

Loi de Zn=X1++Xn

Par une récurrence assez simple, on montre que Zn suit la loi P(nλ).

5.3.Combinaisons particulières

  1. On pose pour k : p(X=k)=e-λλkk!(a+bk).

    1. Trouver une relation entre a et b pour que X soit bien une variable aléatoire.

    2. Calculer E(X).

    3. Calculer V(X).

    Réponses :

    1. On a :

      k0p(X=k) = ak0e-λλkk!+λbk1e-λλk-1(k-1)! = a+λb,

      d'où

      a+λb=1
      .

    2. On a :

      E(X) = ak0ke-λλkk!+λbk1ke-λλk-1(k-1)! = aλ+λbk1(k-1+1)e-λλk-1(k-1)! = aλ+λb(λ+1),

      d'où :

      E(X)=λ(b+1) .
    3. On calcule E(X)2 :

      E(X)2 = λ2(b+1)2.

      On calcule E(X2), pour cela on pose Y,ZP(λ) et l'on écrit :

      p(X=k)=ap(Y=k)+bλp(Z+1=k),

      et l'on sait que E(Y2)=E(Z2)=V(Y)+E2(Y)=λ+λ2 donc :

      E(X2) = aE(Y2)+bλE((Z+1)2) = aE(Y2)+bλ(E(Z2)+2E(Z)+1) = (a+bλ)(λ+λ2)+2bλλ+bλ = λ+λ2+2bλλ+bλ = λ(1+b)+λ2(1+2b).

      d'où :

      V(X)=λ+λb-(λb)2 .

5.3.1.Feuilles de l'arbre

Sam regarde par la fenêtre les feuilles tomber d'un arbre. On admet que le nombre de feuilles tombées en une heure est une variable aléatoire X qui suit une loi de Poisson de paramètre λ>0.

1) Démontrer que l'espérance et la variance d'une variable de Poisson de paramètre λ sont égales à λ.

2) À chaque fois qu'une feuille tombe par terre, Sam lance une pièce qui donne pile avec une probabilité p]0,1[ et face avec probabilité q=1p.

On note F et P le nombre de faces et de piles obtenus respectivement.

a) Pour k fixé, déterminer PX=k(F=a) puis P(X=kF=a).

b) Déterminer la loi de F et celle de P.

3) Calculer E[PF] et Var[P+F].

2) [F sachant X] est une loi binomiale, et on trouve finalement par le système complet (X=k) que P suit la loi P(λp) et F suit P(λq).

3) On montre que P et F, contre l'intuition, sont indépendantes, par :

p(P=iX=i+j)=p(P=i)×p(F=j).

6.Mélange de lois

6.1.Une binomiale et une Poisson

  1. NP(λ) et { YB(N,p) ZB(N,q) . avec p+q=1.

    Montrer que { YP(λp) ZP(λq) . et que Y et Z sont indépendantes.

    Présentation plus concrète :

    NP(λ) est le nombre de candidats à un examen, sachant que la probabilité pour un candidat d'être reçu est p et que les résultats des candidats sont mutuellement indépendants. Donner la loi de Y, le nombre de candidats reçus, et Z le nombre de candidats recalés, et déterminer si Y et Z sont indépendantes ou pas.

    On trouve :

    p(Y=k) = nkp(N=n)×pN=n(Y=k) = nke-λλnn!×( n k )pkqn-k = pke-λλkk!×nkλn-k(n-k)!qn-k=eλq = (pλ)ke-λpk!,

    donc YP(λp). Par analogie, ZP(λq).

    Ensuite :

    p(Y=kZ=) = p(N=k+)×pN=k+(Y=kZ=) = e-λλk+(k+)!×pkq( k+ k ) = p(Y=k)×p(Z=),

    donc, contrairement au bon sens qui se laisserait abuser par la relation Y+Z=N qui semble les voir dépendantes, en fait Y et Z sont indépendantes

6.2.Deux uniformes

  1. N uniforme dans {1,,n} et B uniforme dans {1,,N}, loi et espérance de B ?

    Réponse : on trouve B(Ω)={1,,n} et p(B=k)=1n(1k+1k+1++1n), on vérifie, en écrivant en colonnes, que k=1np(B=k)=1.

    E(B)=1nk=1nEN=k(B)=1nk=1nk+12=12n((n+1)(n+2)2-1)=n4+34.

    Logiquement, E(B) est plus petit que E(N).

  2. X et Y indépendantes et uniformes dans {1,,n}, calculer p(X=Y).

    Réponse : p(X=Y)=k=1np(X=k)×p(Y=k)=1n.

  3. On donne X,Y des variables aléatoires indépendantes avec :

    XU(2) YU(m)

    Donner la loi de X+Y. Calculer 𝔼(X+Y) de deux manières (avec 𝔼(X)+𝔼(Y) puis avec 𝔼(Z)=zip(zi)

6.3.Une binomiale sur une uniforme

  1. N uniforme dans {1,,n} et XB(N,p), loi et espérance de X ?

    Réponse : X(Ω)={1,,n} et :

    p(X=k) = i=knp(N=i)×pN=i(X=k) = i=kn1n×( i k )pkqi-k = 1n×1k!×pk×(1+q( k+1 k )+q2( k+2 k )++qn-k( n k )),

    difficile à simplifier. Par contre l'espérance se simplifie facilement :

    E(X) = i=0np(N=i)×EN=i(X) = i=0n1n×ip = p(n+1)2.

    L'espérance est logiquement plus faible que celle de B(n,p).

6.4.Deux binomiales

  1. X et Y indépendantes suivent B(n,p), calculer p(X=Y)

    Réponse : utilise ( n k )2=( 2n n ) (voir fichier dénombrement). p(X=Y)=14n( 2n n ).