Menu
  1. Toutes les matières
  2. Maths
  3. Prépa HEC

Chapitre 6 :
Compléments sur les variables aléatoires réelles

< Chapitre précédent : Calcul différentiel sur #RR^n#
Compléments sur les variables aléatoires réelles
I

Généralités sur les variables aléatoires réelles

Définition : Algèbre borélienne

La `sigma`-algèbre `B` des boréliens est la plus plus petit tribu sur `Omega` contenant tous les ouverts de `Omega`.

Définition : `sigma`-algèbre associée à une variable aléatoire `X`

On appelle `sigma`-algèbre associée à la variable aléatoire réelle `X` et on note `A_X` la plus petite tribu contenant les événements `[X<=x]` pour tout réel `x`.

Théorème : Opérations sur le variables aléatoires

Sont des variables aléatoires réelles :

  • Une somme de variables aléatoires réelles

  • Un produit de variables aléatoires réelles

II

Espérance et conditionnement pour les variables aléatoires discrètes

Théorème : Existence d'une espérance par comparaison

Si `X` et `Y` sont deux variables aléatoires discrètes telles que `0<=|X|<=Y` presque sûrement et telles que `Y` admet une espérance.

Alors `X` admet également une espérance et :

`|E(X)|<=E(Y)`.

Théorème : Conservation de l'inégalité

Si `X` et `Y` sont deux variables aléatoires discrètes admettant une espérance et telles que `X<=Y` presque sûrement. Alors :

`E(X)<=E(Y)`

Définition : Espérance conditionnelle

Si `A` est un événement de probabilité non nulle et `X` une variable aléatoire réelle. L'espérance conditionnelle de `X` sachant `A` notée `E_A(X)` est l'espérance de `X` pour la probabilité conditionnelle `P_A`.

Théorème : Formule de l'espérance totale

Soit `X` une variable aléatoire réelle définie sur `(Omega,A,P)`, `(A_n)` un système complet d'événements et `I` l'ensemble des entiers `n` tels que `P(A_n)!=0`. Alors :

`X` admet une espérance `iff` la série `sum_((x,n)inX(Omega)xxI)xP_(A_n)(X=x)P(A_n)` converge absolument

Dans ce cas, `AAninI`, l'espérance `E_(A_n)(X)` existe et :

`E(X)=sum_(iinI)E_(A_n)(X)P(A_n)`

III

Complément d'analyse

Définition : Reste d'une intégrale convergente

Soit `f` une fonction continue sur `[a,b[` avec `-oo<a<a<=+oo` telle que `int_a^bf(t)dt ` converge. Alors est appelée reste de l'intégrale `int_a^bf(t)dt` la fonction `R` définie sur `[a,b[` par :

`R(x)=int_x^bf(t)dt`

Théorème : Intégration par partie dans le cas d'une intégrale impropre

En cas d'intégrale impropre, l'intégration par partie est pratiquée sur un segment avant passage à la limite vers la borne infinie.

Théorème : Changement de variable dans le cas d'une intégrale impropre

Soient :

  • `f` une fonction continue sur `[a,b[` avec `-oo<a<b<=+oo`

  • `phi` une bijection de `]alpha,beta[` sur `]a,b[`,monotone et de classe `C^1`

Alors les intégrales `int_a^bf(x)dx` et et `int_(alpha)^(beta)f(phi(t))phi'(t)dt` sont de même nature et égales en cas de convergence.

IV

Compléments sur les variables aléatoires à densité

Théorème : Théorème de transfert

Si `X` est une variable aléatoire à densité admettant une densité `f` non nulle en dehors d'un intervalle `]a,b[` avec `(a,b)inbar(RR)^2` et si `g` est une fonction continue sauf éventuellement en un nombre fini de points sur `]a,b[`.

`g(X)` admet une espérance si et seulement si l'intégrale `int_a^bg(t)f(t)dt` converge absolument et dans ce cas `E(g(X))=int_a^bg(t)f(t)dt`.

Définition : Moment d'ordre `r`

Soit `rinNN`, `r>0`. On dit qu'une variable aléatoire `X` admettant une densité `f` admet un moment d'ordre `r` si l'intégrale `int_(-oo)^(+oo)x^rf(t)dt` converge.

On a alors :

`m_r(X)=E(X^r)=int_(-oo)^(+oo)x^rf(t)dt`

Définition : Variance

La variable à densité `X` admet une variance si la variable `E((X_E(X))^2)` admet une espérance et on note alors :

`V(X)=E((X-E(X))^2)`

Théorème : Variance et moment d'ordre 2

`X` admet une variance si et seulement si elle admet un moment d'ordre 2 et on a alors :

`V(X)=E(X^2)-E^2(X)`

Définition : Écart-type

Si la variable à densité `X` admet une variance, on appelle écart-type le nombre :

`sigma(X)=sqrt(V(X))`

Définition : Variable aléatoire à densité centrée, réduite et centrée-réduite

Soit `X` une variable aléatoire à densité.

  • Si `E(X)=0`, on dit que `X` est centrée

  • Si `V(X)=1`, on dit que `X` est réduite

  • Si `E(X)=0` et `V(X)=1` alors `X` est centrée-réduite

Théorème : Variances classiques
  • Si `X` suit la loi uniforme sur l'intervalle `[a,b]`, `V(X)=(b-a)^2/12`

  • Si `X` suit une loi exponentielle de paramètre `lambda`, `V(X)=lambda`

  • Si `X` suit une loi normale de paramètres `(m, sigma^2)`, alors `V(X)=sigma^2`

V

Compléments sur les lois usuelles

Définition : Loi `gamma`

Une variable aléatoire `X` suit une loi `gamma(upsilon)` avec `upsilon>0` si `X` admet comme densité :

  • `f_X(t)=0` si `t<=0`

  • `f_X(t)=1/(Gamma(upsilon))t^(upsilon-1)e^(-t)` si `t>0` avec `Gamma(upsilon)=int_0^(+oo)t^(upsilon-1)e^(-t)dt`

`E(X)=V(X)=upsilon`

Théorème : Propriétés de `gamma`
  • `Gamma(upsilon+1)=upsilonGamma(upsilon)`

  • `AAninNN`, `Gamma(n+1)=n!`

Théorème : Opération sur la loi normale

Si `X` suit une loi normale et si `(a,b)inRR^2` avec `a!=0`, `aX+b` suit également une loi normale.

Théorème : Propriété de la densité de la loi `gamma`

`AAx in RR`, `Phi(-x)=1-Phi(x)`

Chapitre suivant : Couples de variables aléatoires réelles >