Plusieurs variables aléatoires

Table des matières

1.Divers 1

1.1.Indépendance 1

2.Loi de X+Y 2

3.Covariance 2

3.1.Résultats de base 2

3.2.Exercices 2

4.Plusieurs lois géométriques 2

4.1.Deux lois géométriques 1

4.2.n lois géométriques ?

5.Plusieurs lois de Poisson ?

5.1.Deux lois de Poisson ?

5.2.n lois de Poisson ?

5.3.Combinaisons particulières ?

6.Mélange de lois ?

6.1.Une binomiale et une Poisson ?

6.2.Deux uniformes ?

6.3.Une binomiale et une uniforme ?

6.4.Deux binomiales ?

1.Divers

1.1.Indépendance

  1. Question de cours :

    1. si X et Y indépendantes, montrer que V(X+Y)=V(X)+V(Y).

    2. si X et Y dépendantes, donner des contrexemples où l'égalité n'est pas vérifiée. Peut-on trouver des contrexemples où l'égalité est vérifiée quand même ?

2.Loi de X+Y

  1. Somme de deux variables

    1. Quel est l'autre nom de la loi B(m=1;p=12) ?

    2. On donne X,Y,Z des variables aléatoires indépendantes avec :

      XU(2) YU(m) ZB(n,12) n T=aX+b a,b
      1. Donner la loi de X+Y. Calculer 𝔼(X+Y) de deux manières (avec 𝔼(X)+𝔼(Y) puis avec 𝔼(Z)=zip(zi)

      2. Peut-on trouver n,a,b tels que { 𝔼(Z)=𝔼(T) et V(Z)=V(T) . ? (réponse { n a=nou-n b=a2-2a ..)

  2. X suit la loi B(2n,p)n et p<]0;1[. On demande l'espérance de Y=X2.

    Réponse :

    𝔼(Y) = u=02nup(Y=u) = u=0nup(X=2u ou X=2u+1) = 12u=0n(2u)p(X=2u)+12u=0n-1(2u+1)p(X=2u+1)-12u=0n-1p(X=2u+1) = 12𝔼(X)-12p(X impair)1/2 = 12(𝔼(X)-12) .

3.Covariance

3.1.Résultats de base

3.2.Exercices

  1. X,Y de Bernoulli vérifient Cov(X,Y)=0. Montrer que X,Y indépendantes.

    Réponse : Si XB(p) et YB(p') alors Cov(X,Y)=0 implique E(XY)=pp' donc p(X=1Y=1)=p(X=1)×p(Y=1), et on recommence en utilisant le fait que Cov(1-X,Y)=Cov(X,1-Y)=cov(1-X,1-Y)=0.

  2. (X,Y) un couple de variables aléatoires réelles. Montrer que :

    |cov(X,Y)|V(X)V(Y).

    Réponse : On écrit que V(X+λY)0 pour toute valeur de λ, et c'est un exercice de second degré. En fait, c'est une variante de |x,y|||x||×||y||.

4.Plusieurs lois géométriques

Si XG(p) alors Ω(X)={1;2;3;} et pour tout k1 : p(X=k)=qk-1p.

4.1.Deux lois géométriques

X,Y indépendantes suivent G(p) avec p]0,1[ ; on pose q=1-p.

Vérification : On fait la double somme, ou trouve 1 :

1(p2q2-2+k=1-12p2qk+-2) = 0(p2q2+k=0-12p2qk+) = 0(p2q2+2p2q1-q1-q) = 0(p2q2+2pq(1-q)) = 0(p2q2+2pq-2pq2) = p1+q+2-21+q. = 1.

En fait la vérification peut se faire directement par un principe de double somme, cliquer sur le point : .

Lois de U et de V

p(U=k)=p(X=Y=k)+p(X=k)×p(Y>k)+p(Y=k)×p(X>k), on trouve donc :

p(U=k) = p2q2k-2+2p2qk-1(qk+qk+1+) = p2q2k-2+2pq2k-1 = pq2k-2(p+2q) = pq2k-2(1+q)

de même : p(V=k)=p(X=Y=k)+p(X=k)×p(Y<k)+p(Y=k)×p(X<k) donc :

p(V=k) = p2q2k-2+2p2qk-1(1+q+q2++qk-2) = p2q2k-2+2pqk-1(1-qk-1) = pqk-1(pqk-1+2(1-qk-1)) = pqk-1(2-qk-1-qk).

Autre méthode : p(U=k)=kp((U,V)=(k,)).

Remarque 1. On ne peut pas espérer vérifier nos résultats en calculant d'un côté p((U,V)=(k,)) et de l'autre p(U=k)×p(V=), car U et V ne sont pas du tout indépendants.

Loi de W=|X-Y|
Loi de Z=X+Y

Z(Ω)={2;3;} et l'on a simplement :

p(X+Y=k) = j=1k-1p(X=j)×p(Y=k-j) = j=1k-1(pqj-1)×(pqk-j-1) = p2qk-2(k-1)

4.2.n lois géométriques

X1,X2,,Xn mutuellement indépendantes suivent G(p) avec p]0,1[ ; on pose q=1-p.

Loi de Zn=X1++Xn

On a Zn(Ω)={n,n+1,} puis p(Zn=k)=( k-1 n-1 )pnqk-n. Cela se démontre simplement par récurrence sur n.

Loi de U=Min(X1,,Xn) et de V=Max(X1,,Xn)

On a :

p(U=k) = p(X1,,Xnk)-p(X1,,Xn>k) = (p(qk-1+qk+))n-(p(qk+qk+1+))n = qkn-n-qkn = q(k-1)n(1-qn),

et :

p(V=k) = p(X1,,Xnk)-p(X1,,Xn<k) (p(1+q++qk-1))n-(p(1+q++qk-2))n qk-1(1-q)(2-qk-qk-1).

5.Plusieurs lois de Poisson

Note 2. Si XP(λ) alors Ω(X)={0;1;2;3;} et pour tout k0 : p(X=k)=e-λλkk!.

5.1.Deux lois de Poisson

X,Y indépendantes suivent P(λ) avec l>0.

Vérification : pour la double somme, aucun besoin de calculer explicitement car :

k,0p((U,V)=(k,)) = k<(p(X=)×p(Y=k)+p(X=k)×p(Y=))+k(p(X=k))2 = k(p(X=)×p(Y=k))+k(p(X=k))2 = k,(p(X=)×p(Y=k)) = p(X=)kp(Y=k) = 1
Lois de U et de V

Pas facile à simplifier, on trouve p(U=k)=e-2λλkk!(λkk!+2i>kλii!).

Et p(U=k)=e-2λλkk!(λkk!+2i<kλii!).

Loi de Z=X+Y

On a

p(X+Y=k) = j=0kp(X=j)p(Y=k-j) = j=0ke-λλjj!e-λλk-jk-j! = e-2λλkk!j=0k( k j ) = e-2λ(2λ)kk!,

donc X+Y suit tout simplement la loi P(2λ).

Loi de Z'=X'+Y'

On prend cette fois-ci des paramètres différents, X'P(λ) et Y'P(μ), on montre sans peine que Z' suit la loi P(λ+μ).

5.2.n lois de Poisson

Loi de Zn=X1++Xn

Par une récurrence assez simple, on montre que Zn suit la loi P(nλ).

5.3.Combinaisons particulières

  1. On pose pour k : p(X=k)=e-λλkk!(a+bk).

    1. Trouver une relation entre a et b pour que X soit bien une variable aléatoire.

    2. Calculer E(X).

    3. Calculer V(X).

    Réponses :

    1. On a :

      k0p(X=k) = ak0e-λλkk!+λbk1e-λλk-1(k-1)! = a+λb,

      d'où

      a+λb=1
      .

    2. On a :

      E(X) = ak0ke-λλkk!+λbk1ke-λλk-1(k-1)! = aλ+λbk1(k-1+1)e-λλk-1(k-1)! = aλ+λb(λ+1),

      d'où :

      E(X)=λ(b+1) .
    3. On calcule E(X)2 :

      E(X)2 = λ2(b+1)2.

      On calcule E(X2), pour cela on pose Y,ZP(λ) et l'on écrit :

      p(X=k)=ap(Y=k)+bλp(Z+1=k),

      et l'on sait que E(Y2)=E(Z2)=V(Y)+E2(Y)=λ+λ2 donc :

      E(X2) = aE(Y2)+bλE((Z+1)2) = aE(Y2)+bλ(E(Z2)+2E(Z)+1) = (a+bλ)(λ+λ2)+2bλλ+bλ = λ+λ2+2bλλ+bλ = λ(1+b)+λ2(1+2b).

      d'où :

      V(X)=λ+λb-(λb)2 .

6.Mélange de lois

6.1.Une binomiale et une Poisson

  1. NP(λ) et { YB(N,p) ZB(N,q) . avec p+q=1.

    Montrer que { YP(λp) ZP(λq) . et que Y et Z sont indépendantes.

    Présentation plus concrète :

    NP(λ) est le nombre de candidats à un examen, sachant que la probabilité pour un candidat d'être reçu est p et que les résultats des candidats sont mutuellement indépendants. Donner la loi de Y, le nombre de candidats reçus, et Z le nombre de candidats recalés, et déterminer si Y et Z sont indépendantes ou pas.

    On trouve :

    p(Y=k) = nkp(N=n)×pN=n(Y=k) = nke-λλnn!×( n k )pkqn-k = pke-λλkk!×nkλn-k(n-k)!qn-k=eλq = (pλ)ke-λpk!,

    donc YP(λp). Par analogie, ZP(λq).

    Ensuite :

    p(Y=kZ=) = p(N=k+)×pN=k+(Y=kZ=) = e-λλk+(k+)!×pkq( k+ k ) = p(Y=k)×p(Z=),

    donc, contrairement au bon sens qui se laisserait abuser par la relation Y+Z=N qui semble les voir dépendantes, en fait Y et Z sont indépendantes

6.2.Deux uniformes

  1. N uniforme dans {1,,n} et B uniforme dans {1,,N}, loi et espérance de B ?

    Réponse : on trouve B(Ω)={1,,n} et p(B=k)=1n(1k+1k+1++1n), on vérifie, en écrivant en colonnes, que k=1np(B=k)=1.

    E(B)=1nk=1nEN=k(B)=1nk=1nk+12=12n((n+1)(n+2)2-1)=n4+34.

    Logiquement, E(B) est plus petit que E(N).

  2. X et Y indépendantes et uniformes dans {1,,n}, calculer p(X=Y).

    Réponse : p(X=Y)=k=1np(X=k)×p(Y=k)=1n.

6.3.Une binomiale et une uniforme

  1. N uniforme dans {1,,n} et XB(N,p), loi et espérance de X ?

    Réponse : X(Ω)={1,,n} et :

    p(X=k) = i=knp(N=i)×pN=i(X=k) = i=kn1n×( i k )pkqi-k = 1n×1k!×pk×(1+q( k+1 k )+q2( k+2 k )++qn-k( n k )),

    difficile à simplifier. Par contre l'espérance se simplifie facilement :

    E(X) = i=0np(N=i)×EN=i(X) = i=0n1n×ip = p(n+1)2.

    L'espérance est logiquement plus faible que celle de B(n,p).

6.4.Deux binomiales

  1. X et Y indépendantes suivent B(n,p), calculer p(X=Y)

    Réponse : utilise ( n k )2=( 2n n ) (voir fichier dénombrement). p(X=Y)=14n( 2n n ).