Search for notes by fellow students, in your own course and all over the country.
Browse our notes for titles which look like what you need, you can preview any of the notes via a sample of the contents. After you're happy these are the notes you're after simply pop them into your shopping cart.
Description: Nous nous intéresserons durant ce travail de fin d’étude de master à l’espérance conditionnelle et aux chaines de Markov (à temps discret) et ce dans le but de renforcer la formation en probabilités. Nous commencerons d’abord par rappeler les notions de base des probabilités, à savoir un espace probabilisé et une variable aléatoire et son espérance. Ensuite, nous verrons la notion d’indépendance pour laisser place à celles de probabilités et espérance conditionnelles. À la fin, nous aurons suffisamment de connaissances pour introduire les chaines de Markov.
Document Preview
Extracts from the notes are below, to see the PDF you'll receive please use the links above
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE
UNIVERSITE LES FRERES MENTOURI - CONSTANTINE
FACULTE DES SCIENCES EXACTES
DEPARTEMENT DE MATHEMATIQUE
MASTER EN MATHEMATIQUE
OPTION :
Statistique appliquées
Intitulé :
ESPERANCE CONDITIONNELLE & CHAINES DE MARKOV
Présenté par :
Boudjadar Seyfeddine et Aouaichia Charfeddine
Directeur de Mémoire :
Dr
...
Devant le jury :
Président :……………………
...
Omar Boukhadra
Année universitaire : 2014/2015
REMERCIEMENT
Nous remercions d’abord « Dieu » qui nous garde et nous donne la
force et la volonté pour réaliser et achever ce modeste travail
...
Nous remercions note encadreur le docteur monsieur Omar
Boukhadra, par ses remarques pertinentes, par une grande patience et par
ses bons conseils qui nous ont aidé a réalisé ce travail
...
Constantine le 02 /06/2013
...
Nous
commencerons d’abord par rappeler les notions de base des probabilités,
à savoir un espace probabilisé et une variable aléatoire et son espérance
...
À la fin, nous aurons
suffisamment de connaissances pour introduire les chaines de Markov
...
Abstract:
In this work we are interested to the conditional expectation and
Markov Chains (discrete time), this is in order to strengthen our
knowledge in probability theory
...
Then we will see the concept of independence to give way
to those of conditional probabilities and expectation
...
Keywords: probability space,
conditional, Markov chains
...
Espace probabilisé…………………………………………………………………………………………
...
1 Tribu et espace probabilisable…………………………………………………………………7
1
...
8
1
...
9
1
...
Conditionnement et indépendance ………………………………………………………………… 12
2
...
2 Indépendance………………………………………………………………………………………
...
3 Indépendance de plusieurs événements…………………………………………………14
2
...
15
3
...
1 Définitions et exemples…………………………………………………………………………
...
2 Fonction de répartition d’une V
...
18
3
...
19
3
...
21
3
...
Esperance conditionnel……………………………………………………………………………………27
4
...
27
4
...
3 Estimation d’une variable aléatoire………………………………………………………
...
4 Espérance conditionnel d’une variable aléatoire 𝑌 sachant une variable
aléatoire 𝑋…………………………………………………………………………………………………
...
5 Caractérisation de 𝔼[𝑌\𝑋] …………………………………………………………………
...
6 Variance conditionnelles………………………………………………………………………
...
Chaine de Markov…………………………………………………………………
...
1 Matrice de transition (matrice stochastique)………………………………………… 35
5
...
36
5
...
37
5
...
38
5
...
6 Propriété fort de Markov ………………………………………………………………………41
5
...
46
Introduction générale :
Ce mémoire de master se veut en premier un renforcement des
connaissances en théorie des probabilités et de la statistique
mathématique, et en même temps une découverte de nouvelles notions
importantes
...
Ensuite on aborde la
notion d’espace probabilisé et en particulier l’espace fini de probabilités
...
Ensuite, on aborde les variables aléatoires (v
...
) numériques qui
représentent des applications associant à chaque résultat possible d’une
expérience aléatoire une grandeur numérique
formalisée
mathématiquement
...
a
...
a
...
Nous définirons
l’espérance et la variance mathématique d’une v
...
et en donnerons
quelques propriétés essentielles
...
Nous parlerons après de l’espérance conditionnelle
...
En fin, on s’intéresse aux chaines de Markov à temps discret
...
Une généralisation à un espace
d'états infini dénombrable a été publiée par Kolmogorov en 1936
...
Un modèle dynamique pour lequel le futur dépend de l’état présent
et du hasard est appelé une chaîne de Markov : c’est un modèle simple
pour représenter un phénomène aléatoire évoluant au cours du temps
...
Espace probabilisé
1
...
En ce sens que l’issue de celle-ci ne peut pas être connue à l'avance
...
C’est uniquement à la fin de
l'expérience que l'observateur saura quel en est le résultat 𝑤 ∈ Ω
...
Dans ce cas,
l'ensemble fondamental est Ω = ℝ
...
Ici Card(Ω) = 63 = 216
...
1
...
b) Si 𝑓 ∈ ℱ, alors𝑓 𝑐 ∈ ℱ, ou 𝑓 𝑐 désigne le complémentaire de 𝑓, (stabilité par
complémentation)
...
Remarques:
Si c) remplacé par c ′ ): si 𝑓1 ∈ ℱ et 𝑓2 ∈ ℱ , alors 𝑓1 ∪ 𝑓2 ∈ ℱ,
(stabilité par union finie), alors ℱ est une algèbre
...
Un singleton
{𝑤} avec 𝑤 ∈ Ω est appelé un événement élémentaire
...
L'ensemble vide ∅ est
appelé l'événement impossible
...
Si 𝐺 est un événement et si, à la fin de l'expérience, on constate
que 𝑤 ∈ 𝐺, alors on dit que l'événement 𝐺 est réalisé
...
On considère l’univers Ω = {a; b; c}
...
Définition 2 :
Un espace probabilisable associé à une expérience aléatoire ε est la donnée
du Couple (Ω, ℱ) où Ω est l’univers associé à ε
...
1
...
Axiomes des probabilités :
Soit (Ω, ℱ) espace probabilisable
...
𝑃 ∶ ℱ → [0,1]
qui vérifie les deux axiomes suivants :
Axiome 1 : (événement certain)
...
Axiome 2 : (𝜎-aditivité)
...
𝑛=1
𝑛=1
Un espace de probabilité est un triplé (Ω, ℱ, P), ou Ω un ensemble non vide, ℱ
est une tribu sur Ω et P une probabilité sur (Ω, ℱ)
...
Exemple
L’ensemble {2, 4, 6} est un événement
...
8
Espace probabilisé
Propriétés :
-𝑃( 𝐴̅) = 1 − 𝑃( 𝐴), 0 ≤ 𝑃( 𝐴) ≤ 1
...
-𝐴 ⊂ 𝐵 ⇒ 𝑃( 𝐴) ≤ 𝑃( 𝐵)
...
Ω
A
𝐵
A∩B
1
...
Espaces finis :
Continuité de la probabilité :
Une conséquence importante de l'axiome de 𝜎 − 𝑎𝑑𝑑𝑖𝑡𝑖𝑣𝑖𝑡é des probabilités
sont les deux propriétés suivantes de continuité le long de suites monotones
d'événements
...
Alors
𝑃 (⋃ 𝐺 𝑛 ) = lim 𝑃(𝐺 𝑛 )
𝑛𝜖ℕ
𝑛→∞
b) Soit(𝐺 𝑛 , 𝑛 ∈ ℕ)une suite d'événement tels que 𝐺 𝑛 ⊃ 𝐺 𝑛+1 , pour tout
𝑛 ∈ ℕ
...
On va donc étudier plus spécifiquement le cas ou Ω = {𝑤1 , … , 𝑤 𝑟 },
est un ensemble fini
...
Probabilité sur (Ω, ℱ):
De manière général, il est intéressant de connaitre toutes les fonctions de
probabilités sur ℱ
...
Posons 𝑝 𝑖 = 𝑝({𝑤 𝑖 }) (on écrit plutôt 𝑝{𝑤 𝑖 } alors 𝑝1 , … , 𝑝 𝑟 sont des nombres
réels tels que 𝑝 𝑖 ≥ 0,𝑖 = 1, … , 𝑟 et 𝑝1 + ⋯ + 𝑝 𝑟 = 1
...
En effet Si G = { 𝑤 𝑖1 , … , 𝑤 𝑖 𝐾 } , alors d'après la propriété
d'additivité finie,
𝑃(𝐺) = 𝑃({𝑤 𝑖1 } ∪ … ∪ {𝑤 𝑖𝑘 }) = 𝑝{𝑤 𝑖1 } + ⋯ + 𝑝{𝑤 𝑖𝑘 } = 𝑝 𝑖1 + ⋯ + 𝑝 𝑖 𝐾
...
Réciproquement, il est possible de se donner des nombres 𝑝1 + ⋯ + 𝑝 𝑟
vérifiant
...
Par la formule précédente lorsque 𝐺 ≠ ∅ et de poser 𝑃(∅) = 0
...
4
...
Considérons Ω et
𝑝1 , … , 𝑝 𝑟
comme espace de probabilité fini, nous allons donc faire
l'hypothèse suivante
...
𝑝1 = 𝑝2 = ⋯ = 𝑝 𝑟
...
10
Espace probabilisé
Il est facile de déterminer la probabilité d'un événement 𝐺 𝜖 ℱ
...
Exemples:
a) On lance une pièce de monnaie équitable deux fois de suite
...
Soit 𝐺 l'événement qui
correspond à -les deux résultats sont identiques-, c'est-à-dire
𝐺 = {(𝑃, 𝑃), (𝐹, 𝐹)}
...
Quelle est la probabilité d'obtenir
exactement une paire ? Dans ce cas, la valeur de #Ω ne peut être
déterminée par énumération, car le nombre de mains de 5 cartes est trop
grand
...
422569
...
Conditionnement et indépendance :
2
...
Conditionnement
Définition :
Soit A et B deux événements de ℱ, avec P (B) ≠0
...
L’application 𝑃 𝐵 : (Ω, ℱ) → [0, 1] définie par :
𝑃 𝐵 ( 𝐴)= 𝑃(𝐴⁄ 𝐵)
est une probabilité sur (Ω, ℱ)
...
∀ n et ⋃∞ 𝐵 𝑛 = Ω (les 𝐵 𝑛 forment une partition de Ω)
...
Au cours d'une
épidémie, on constate que, sur quinze malades, il y a deux personnes vaccinées
...
On a:
P(V) = 1 / 3
...
12
Conditionnement et indépendance
P(M/V) =
𝑃(𝑀∩𝑉)
𝑃(𝑉)
=
𝑃( 𝑉⁄ 𝑀)𝑃(𝑀) 2
=
𝑃(𝑉)
15
× 3𝑃(𝑀) =
2
5
𝑃(𝑀)
On a : P(M | V)
...
On suppose de plus que sur cent personnes vaccinées, huit sont malades
...
Il y a donc 20% de malades
...
2
...
On peut écrire aussi
P(A ∩ B) = P(B| A)P(A)
...
Exemple:
On fait l'hypothèse que chacun des moteurs d'un avion bi-moteur tombe en
panne ave une probabilité égale à 0,0001 et ceci de façon indépendante de
l'autre moteur
...
Alors A ∩ B est l'évènement « les deux
moteurs tombent en panne »
...
L'évènement
contraire, ̅̅̅̅̅̅̅ , signifie qu'au moins l'un des moteurs n'est pas tombé en
𝐴∩ 𝐵
panne, donc que l'avion arrive à bon port
...
3
...
Et pour toute suite 1 ≤ 𝑖1 <
𝑖2 < … < 𝑖 𝑘 ≤ n,
P (Gi1 ∩ Gi2 ∩ … ∩ Gik ) = P (Gi1 ) P (Gi2 ) … P (Gik )
...
Remarques :
Si deux évènements A et B sont indépendants, alors les évènements A et
̅
̅ ̅
̅
B sont indépendants aussi, de même que A et B, ainsi que A et B
...
En général on à P(A⁄B) ≠ P(A) ce qui signifie que A dépend de B
...
et pour wi ∈ Ω, P{wi } =
1
4
, i = 1, … ,4
...
On va vérifier que 𝐺1
et 𝐺2 sont indépendantes
...
D’autre part P (G1 ∩ G2 )= P {(P, P)} = 1/4 et on a donc P(G1 ∩ G2 )= P(G1 ) P(G2 )
...
2) On lance une pièce de monnaie équitable 3 fois de suite
...
Montrons que ces événements sont deux à deux indépendants mais ne sont
pas mutuellement indépendants
...
D’autre part, en comptant les cas favorables à chaque événement, on constate
que
...
P(G1 ∩ G2 ) = 2/8 = ¼ = P(G1 ) P(G2 )
...
Les événements G1 ,G2 et G3 sont bien deux a deux indépendant
...
P(G2 )
...
En fait, il est facile
de remarque si G1 et G2 se réalisent, alors G3 se réalise aussi, ce qui explique
cette constatation
...
4
...
𝑃(𝐵1 ⁄A) =
𝑃(𝐵1 )∗𝑃( 𝐴⁄ 𝐵 )
1
̅̅
̅̅
𝑃(𝐵1 )∗𝑃( 𝐴⁄ 𝐵 )+𝑃(𝐵1 )∗𝑃( 𝐴⁄̅̅ )
̅̅
𝐵1
1
̅̅̅
𝑃(𝐵1⁄A) =
̅̅
̅̅
𝑃(𝐵1 )∗𝑃( 𝐴⁄̅̅ )
̅̅
𝐵1
̅̅
̅̅
𝑃(𝐵1 )∗𝑃( 𝐴⁄ 𝐵 )+𝑃(𝐵1 )∗𝑃( 𝐴⁄̅̅ )
̅̅
𝐵1
1
15
Conditionnement et indépendance
Exemple : test pour détecter une maladie
...
Selon les
indications du producteur, si le test est administré à une personne qui est
effectivement atteinte par cette maladie, alors le test indiquera « positif »
dans 95% des cas
...
Heureusement, seulement 0,1% de la population est porteuse de
cette maladie
...
L’énoncé du problème
exprime que
...
95, 𝑃(𝐻⁄𝐺 𝑐 )= 0
...
001
...
𝑃(𝐺⁄H) =
=
𝑃(𝐺)∗𝑃( 𝐻⁄ 𝐺 )
𝑃(𝐺)∗𝑃( 𝐻⁄ 𝐺 )+𝑃(𝐺 𝑐 )∗𝑃( 𝐻⁄ 𝐺 𝑐 )
0
...
001
0
...
001 + 0
...
999
= 0
...
16
Variable aléatoire et son espérance
3
...
1
...
Une variable aléatoire est une
fonction X : Ω → ℝ telle que pour tout x ∈ ℝ
...
Remarques :
Pour simplifier l’écriture, on écrit souvent {X ≤ x} au lieu de {ω ∈
Ω : X(ω) ≤ x}
...
Le cas
particulier ou ℱ= P(Ω), toute fonction X : Ω ⟶ ℝ est une variable
aléatoire
...
Exemples :
1) On joue deux fois de suite à pile ou face
...
Le nombre d’apparitions
de pile est la variable aléatoire suivante :
0 , 𝑆𝑖 𝜔 = 𝑓𝑓
X(ω) = 1 , 𝑆𝑖 𝜔 ∈ {𝑝𝑓, 𝑓𝑝}
{2 , 𝑆𝑖 𝜔 = 𝑝𝑝
2) on jette un dé n fois
...
Pour décrire cette situation, on pose Ω = (1, … ,6) 𝑛 , ℱ= P(Ω), et
on définit P : ℱ ⟶ [0,1] de telle sorte que tous les évènements
élémentaires sont équiprobables
...
La variable
aléatoire X est la fonction définie par :
17
Variable aléatoire et son espérance
𝑛
𝑋(𝜔) = ∑ 1{6} (𝜔 𝑖 )
𝑖=1
Où 1{6} est la fonction de {1, … ,6} dans ℝ définie par :
1 , 𝑆𝑖 𝜔 𝑖 = 6
1{6} = {
0 , 𝑆𝑖𝑛𝑜𝑛
3
...
Fonction de répartition d’une variable aléatoire :
La loi de probabilité d’une variable aléatoire permet de connaitre les
chances d’apparition des différentes valeurs de cette variable
...
La loi de probabilité de X est définie par
la fonction 𝐹 𝑋 , appelée fonction de répartition de la variable X, définie
par :
𝐹 𝑋 : ℝ ⟶ [0,1]
𝑥↦𝑃(𝑋 ≤ 𝑥)
Propriétés :
a) 𝑥 ≤ 𝑦 ⇒ 𝐹(𝑥) ≤ 𝐹(𝑦)
...
c) 𝑃(𝑋 > 𝑎) = 1 − 𝐹 𝑋 (𝑎)
...
Remarque :
Soient a et b deux nombres telles que a ≤ b on a :
𝑃(𝑋 ∈]𝑎, 𝑏]) = P(X ≤ b) − P(X ≤ a)
...
3
...
Dans ce cas, la loi de X
est déterminée par l’ensemble des probabilités :
𝑃 𝑋 (𝑥) = 𝑃(𝑋 = 𝑥), 𝑥 ∈ 𝑋
...
X est une
variable aléatoire discrète, elle peut prendre les valeurs entières
1, 2, 3, 4, 5, et 6
...
X est une variable aléatoire
discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4
...
On note X le nombre de périodes complètes de 100 heures que dure
l’ampoule
...
Calculons la fonction de répartition de X
...
De plus, pour tout n ∈ ℕ
...
Ainsi, on a donc pour tout x ≥ 0 :
19
Variable aléatoire et son espérance
[𝑥]
P(X ≤ x) = ∑ 𝑃(𝑋 = 𝑛)
...
On notera que la fonction 𝐹 𝑋 est une fonction en escalier
...
, 𝑥 𝑛 }, Alors la loi de X est caractérisée par
l’ensemble des probabilités P(X =𝑥 𝑖 ), c’est-à-dire les nombres réels
positifs 𝑝 𝑖 tels que :
𝑛
P(X =𝑥 𝑖 ) = 𝑝 𝑖 avec 0 ≤ 𝑝 𝑖 ≤ 1 et ∑ 𝑖=1 𝑝 𝑖 = 1
1
...
Cette loi s’applique dans les jeux de hasard de type binaire comme pile ou
face, et aussi si on veut modéliser le fonctionnement d’un système
...
2
...
, n} suit une loi
binomiale de paramètres (n, p), notée 𝔅 (n, p), si :
𝑃(𝑋 = 𝑘) = ∁ 𝑘𝑛 𝑝 𝑘 (1 − 𝑝) 𝑛−𝑘 0 ≤ 𝑘 ≤ 𝑛
...
20
Variable aléatoire et son espérance
3
...
Variable aléatoire continue :
Définition :
Soient X une variable aléatoire et 𝐹 sa fonction de répartition
...
Fonction de densité :
Soit 𝐹 la fonction de répartition d’un variable aléatoire continue X
...
Remarques :
Soit 𝐹 une fonction de répartition qui admet 𝑓 comme fonction de
densité
...
+∞
Toute fonction 𝑓: ℝ → ℝ+ telle que ∫−∞ 𝑓 ( 𝑥) 𝑑𝑥 = 1 est appelée
fonction de densité
...
La fonction de densité 𝑓 de
X est la dérivée de la fonction de répartition 𝐹 de X
...
1
...
2
...
On dit que X suit une loi normale de paramètres
(µ, 𝜎 2 ), notée 𝒩(µ,𝜎 2 ), si la loi de X a pour densité
...
𝑓 𝑋 ( 𝑥) =
exp {−
2𝜎 2
𝜎√2𝜋
1
La loi normale s’applique à de nombreux phénomènes, en physique, en
économie en biologie, remarquant souvent que les variables utilisées
dans ces domaines sont positives, il faut que la probabilité théorique
d’obtenir des valeurs négatives de la variable soit très faible
...
Remarque :
Il existe d’autres lois comme la loi géométrique, la loi de Poisson, loi
gamma, la loi de Student…
On va les voir dans le chapitre suivant
...
5 Esperance mathématique :
Définitions :
1) Soient X une variable aléatoire, 𝑓 𝑋 sa fonction de densité et D= {x∈
ℝ : 𝑓 𝑋 (𝑥) > 0 }
...
+∞
𝔼[X]=∫
𝑥𝑓 𝑋 𝑑𝑥
−∞
22
Variable aléatoire et son espérance
Remarque :
+∞
𝔼[X]est définie pour autant que ∫ |𝑥|𝑓 𝑋 𝑑𝑥< +∞
...
Alors D= {1 ,
...
+6 × = 3,5
...
Rappelons que la
fonction de densité d’une telle variable aléatoire X est
...
X et Y
...
b) Soit X une variable aléatoire telle que P{ X ≥ 0} =1
...
Alors
𝔼 (𝑋1 )≤ 𝔼(𝑋2 )
...
Proposition
Soient X1 et X2 deux variables aléatoire indépendantes
...
23
Variable aléatoire et son espérance
De même, si 𝑋1 ,
...
, 𝑋2 ) = 𝔼 (𝑋1 ),
...
Variance, covariance et corrélation :
Définitions
Soient X une variable aléatoire telle que 𝔼( 𝑋 2 ) <+∞, et soient (𝑋1 , 𝑋2 )
deux variables aléatoire telles que 𝔼( 𝑋 𝑖 2 ) < +∞, i=1,2
...
b) L’écart type de X est le nombre 𝜎 𝑋 =√𝑣𝑎𝑟(𝑋)
...
d) La corrélation entre 𝑋1 , 𝑋2 est le nombre :
Corr(𝑋1 ,𝑋2 ) =
COV(𝑋1 ,𝑋2 )
√𝑣𝑎𝑟(𝑋1 )√𝑣𝑎𝑟(𝑋2 )
Ce nombre est bien défini si VAR (𝑋1 ) ≠ 0 ≠ VAR(𝑋2 )
...
Cov(𝑋1 , 𝑋2 ) = 𝔼(𝑋1 𝑋2 )− 𝔼(𝑋1 ) 𝔼(𝑋2 ) = Cov(𝑋2 , 𝑋1 )
...
VAR (aX+b) =𝑎2 𝑉𝐴𝑅(𝑋) pour tout réal a et b
...
Nous constatons aisément à l’aide des définitions que var(X)=cov(X,
X)
...
VAR(X) = 𝔼 [(X − 𝔼(X))2]= [𝑋 2 − 2𝑋𝔼[𝑋] + (𝔼[𝑋])2 ]
...
Notons que ce résultat est important, car il permet de déduire facilement
la variance d’une variable aléatoire à partir de ces
...
Par la définition de la covariance et la linéarité, nous avons :
Cov (𝑋1 ,𝑋2 ) =
=
=
=
𝔼 [(𝑋1 − 𝔼[𝑋1 ]) (𝑋2 − 𝔼[𝑋2 ])]
...
𝔼[𝑋1 𝑋2 ] − 𝔼[𝑋1 ]𝔼[𝑋2 ] − 𝔼[𝑋1 ]𝔼[𝑋2 ] + 𝔼[𝑋1 ]𝔼[𝑋2 ]
𝔼[𝑋1 𝑋2 ] − 𝔼[𝑋1 ]𝔼[𝑋2 ]
...
3
...
Montrons alors la linéarité par rapport à la première variable
...
D’après le point 2
...
D’après la définition et la linéarité de l’espérance
...
Pour tout ε > 0
P {| 𝑋 − 𝔼[𝑋] |≥ ε} ≤
𝑉𝑎𝑟(𝑋)
𝜀2
Démonstration :
On utilise les propriétés de l’espérance mathématique pour écrire
...
| 𝑋−𝔼[𝑋] |
𝜀
≥ 1 est vérifiée
...
1{|
𝑋−𝔼[𝑋] |≥ ε }
≤
(𝑋−𝔼[𝑋])2
𝜀2
...
25
Variable aléatoire et son espérance
P {| 𝑋 − 𝔼[𝑋] |≥ ε}≤ 𝔼[
(𝑋−𝔼[𝑋])2
𝜀2
]=
1
𝑉𝑎𝑟(𝑋)
...
LOIS USUELLES
On résume les lois de probabilités les plus usuelles dans les tableaux
suivants
...
, n}
Loi géométrique
G(p)
Probabilité
élémentaire
P(X=0) =1-p
P(X=1)=P
Esperance
Variance
P
P (1-P)
∁k pk (1 − p)n−k
n
Np
np (1-p)
λ
λ
1
𝑃
1− 𝑃
𝑃2
ℕ∗
{0,1}
ℕ
𝑒
𝜆𝑘
𝑘!
−𝜆
𝑃(1 − 𝑃) 𝑘−1
Pour les lois de probabilités continues :
Nom et symbole
Loi uniforme
U [a, b]
Loi normale
(m,𝜎 2 )
Loi exponentielle
exp(λ)
Loi de Weibull W
(η, β)
Support
[a, b]
ℝ
Densité
1
1
(𝑥)
𝑏 − 𝑎 [𝑎,𝑏]
(𝑥−𝑚)2
1
−
𝑒 2𝜎2
𝜎√2𝜋
ℝ+
ℝ+
𝜆𝑒 −𝜆𝑥
𝛽
𝜂𝛽
𝑋 𝛽−1 𝑒
𝑥
𝜂
−( ) 𝛽
Esperance
𝑎+ 𝑏
2
Variance
(𝑏 − 𝑎)2
12
m
𝜎2
1
𝜆
1
𝜆2
1
𝜂Γ(1 + )
𝛽
2
𝜂2 [𝜂Γ (1 + )
𝛽
1
− 𝜂Γ(1 + )2 ]
𝛽
26
Espérance et variance conditionnelles
4
...
Ce problème d’estimation est un cas particulier du
problème de la meilleure approximation que l’on rencontre en algèbre
linéaire et que nous rappelons ci-dessous
...
1
...
〉 et d’une norme
‖
...
S’il existe 𝑤0 ∈
𝑊 tel que pour tout 𝑤 ∈ 𝑊
...
(1)
𝑤0 est la projection orthogonale de 𝑣 sur 𝑊 et
‖ 𝑣 − 𝑤0 ‖ ≤ ‖ 𝑣 − 𝑤 ‖ Pour tout 𝑤 ∈ 𝑊
Démonstration :
Puisque 𝑣 = 𝑤0 + (𝑣 − 𝑤0 ), et 𝑤0 ∈ 𝑊 et 𝑣 − 𝑤0 est orthogonal de 𝑊
d’après la proposition 1, 𝑤0 est bien la projection orthogonal de 𝑣 su 𝑊
d’autre part, pour tout 𝑤 ∈ 𝑊
...
(2)
Remarques :
Le vecteur 𝑤0 est appelé la meilleur approximation de v par un
élément de W
...
4
...
Un espace vectoriel de variables aléatoires :
Soit (Ω, ℱ, 𝑃) un espace de probabilités
...
27
Espérance et variance conditionnelles
Proposition 2 : 𝐿2 (Ω) est un espace vectoriel
...
𝔼[( 𝑎1 𝑋1 + 𝑎2 𝑋2 )2 ] ≤ 𝔼[( 𝑎1 2 + 𝑎2 2 )( 𝑋1 2 + 𝑋2 2 ) ]
= ( 𝑎1 2 + 𝑎2 2 )( 𝔼[ 𝑋1 2 ] + 𝔼[ 𝑋2 2 ]) < ∞
...
a
...
Remarque:
Dans 𝐿2 , si par abus de langage, on fait la différence entre deux variables
aléatoire qui sont égales P
...
Ce qui fait alors 𝔼[𝑋𝑌] définit bien une
norme dans 𝐿2 (Ω)
...
3
...
Ainsi, la meilleure estimation de 𝑌 par une variable aléatoire
...
Etant donné une variable aléatoire 𝑌 ∈ 𝐿2 (Ω) et une
variable aléatoire X, nous allons chercher la variable aléatoire de la forme
𝜓(𝑋) qui approxime au mieux la variable aléatoire 𝑌 dans le sens cette
fonction 𝜓: ℝ → ℝ minimise l’expression
...
4
...
28
Espérance et variance conditionnelles
Proposition 3:
𝑊𝑥 Est un sous-espace vectoriel de 𝐿2 (Ω)
...
D’autre part, si,
𝑍1 = 𝑔1 (𝑥),𝑍2 = 𝑔2 (𝑥) et 𝑎1 , 𝑎2 ∈ ℝ alors :
𝑎1 𝑍1 + 𝑎2 𝑍2 = ( 𝑎1 𝑔1 + 𝑎2 𝑔2 )(𝑋) appartient bien à 𝑊𝑥
...
Définition:
Soit 𝑋et 𝑌 deux variables aléatoires dans ℝ tel que 𝑌 ∈ 𝐿2 (Ω)
...
existe)
...
5
...
𝔼[𝑌𝑔(𝑋)] = 𝔼[𝔼[𝑌\𝑋]𝑔(𝑋)]
...
Pour la preuve de cette proposition 1
Formule pour 𝔼[𝑌\𝑋] dans le cas discret :
Nous allons faire le lien entre l’espérance conditionnelle de 𝑌 sachant 𝑋
et la loi conditionnelle Y sachant X = x
...
a) Pour 𝑥 ∈ ℝ tel que 𝑃{𝑋 = 𝑥} ≠ 0, posons :
𝔼[𝑌\𝑋 = 𝑥] ≝ ∑ 𝑦 𝑦𝑃(𝑌 = 𝑦\𝑋 = 𝑥) = ∑ 𝑦 𝑓 𝑌 (𝑦\𝑋 = 𝑥)
...
Dalang et Daniel Conus
...
𝑌 Sous la loi conditionnelle de 𝑌 sachant 𝑋 = 𝑥
...
𝑃( 𝐹 )
𝑦
Proposition 5
Soit 𝑋 et 𝑌 deux variables aléatoires discrètes dans ℝ
...
𝔼[𝑌\𝑋 = 𝑥] 𝑠𝑖 𝑃{𝑋 = 𝑥} ≠ 0
𝜑(𝑋) = {
0
𝑠𝑖𝑛𝑜𝑛
Ceci définit une fonction 𝜑: ℝ → ℝ
...
Démonstration :
Soit 𝑔: ℝ → ℝ continue et bornée
...
Celleci s’écrit :
∑ ∑ 𝑦𝑔(𝑥)𝑃{𝑋 = 𝑥, 𝑌 = 𝑦} = ∑ 𝜑(𝑥)𝑔(𝑥)𝑃{𝑋 = 𝑥}
...
∑ 𝑔(𝑥)(𝑃{𝑋 = 𝑥, 𝑌 = 𝑦}) = ∑ 𝑔(𝑥)𝜑(𝑥)𝑃{𝑋 = 𝑥}
...
𝑦
Formule pour 𝔼[𝑌\𝑋] dans le cas continu :
Définition 2 : (densité conditionnelle) :
30
Espérance et variance conditionnelles
Soient 𝑋1 , 𝑋2 deux variables aléatoires ayant comme fonction de densité
conjointe 𝑓 𝑋 (𝑥1 , 𝑥2 ) Soit 𝑥2 ∈ ℝ tel que𝑓 𝑋2 (𝑥2 ) > 0 , La fonction de
densité conditionnelle de 𝑋1 sachant 𝑋2 = 𝑥2 est
...
𝑓 𝑋2 ( 𝑥2 )
Définition 3:
Soit 𝑋 et 𝑌 deux variables aléatoires continues dans ℝ avec fonction
densité conjoint 𝑓(𝑋,𝑌)
...
+∞
𝔼[𝑌\𝑋 = 𝑥] ≝ ∫
𝑦 𝑓 𝑌/𝑋 (𝑦\𝑋 = 𝑥)𝑑𝑦
−∞
(5)
Ce nombre est l’espérance de 𝑌 calculée avec la densité conditionnelle de
𝑌
Sachant 𝑋 = 𝑥
...
Pour 𝑥 ∈ ℝ , posons, à l’aide de (5),
𝜑(𝑋) = {
𝔼[𝑌\𝑋 = 𝑥] 𝑠𝑖 𝑓 𝑋 (𝑥) ≠ 0
0
𝑠𝑖𝑛𝑜𝑛
Ceci définit une fonction 𝜑: ℝ → ℝ
...
Plus
généralement, Pour 𝑥 ∈ ℝ , posons
𝜓(𝑥) = {
𝔼[ℎ(𝑌)\𝑋 = 𝑥] 𝑠𝑖 𝑓 𝑋 (𝑥) ≠ 0
0
𝑠𝑖𝑛𝑜𝑛
L’espérance conditionnelle de ℎ(𝑌) sachant 𝑋 est alors la variable
aléatoire
𝔼[ℎ(𝑌)\𝑋] = 𝜓(𝑋)
...
Soit g: ℝ → ℝ continue et bornée
...
𝔼[ℎ(𝑌)𝑔(𝑋)] = 𝔼[𝜓(𝑋)𝑔(𝑋)]
Celle-ci s’écrit
...
Alors 𝔼[h(X)Y\X] = h(X)𝔼[Y\X]
...
d) Si X et Y sont deux v
...
indépendantes, alors 𝔼[Y\X] = 𝔼[Y]
e) Soit h: ℝ → ℝ
...
a) Soit X une variable aléatoire discret telle que 𝔼(X 2 ) < ∞
...
b) Soit X une variable aléatoire telle que 𝔼(X 2 ) < ∞, comme donne
la définition 2 soit une variable aléatoire discrète, on pose
𝔼[X\F] =
1
P(F)
𝔼[X1F ]
...
Pour la preuve de ces propositions 3
4
...
Variance conditionnelles :
Imaginerons qu’on observe X et qu’on estime Y par 𝔼[Y\X]
...
Définition 4:
𝑉𝑎𝑟( 𝑌\𝑋 ) = 𝔼[(𝑌 − 𝔼[𝑌\𝑋])2 \𝑋]
...
b) Posons Var(Y\X = x) ≝ 𝔼[Y 2 \X = x] − (𝔼[Y\X = x])2 et
ψ(X) = Var(Y\X = x) (il est s’agit donc de la variance de Y
calculée avec la loi conditionnelle de Y sachant X = x)
...
c) Si X et Y sont indépendants, Alors Var(Y\X) = Var(Y)
...
D’après la définition 4, le premier terme du membre de droite est égal
à 𝔼[(𝑌 − 𝔼[𝑌\𝑋])2 ]
...
Dalang et Daniel Conus
...
Dalang et Daniel Conus
...
Quand au second terme, c’est la variance
de l’estimation de Y
...
Puisque 𝔼[𝑌] = 𝔼[𝔼(Y\X)],
Le deuxième terme de cette somme est,
𝔼[(𝔼[𝑌\𝑋] − 𝔼[ 𝔼[ 𝑌\𝑋]])2 ] = Var( 𝔼[Y\X])
...
34
Chaines de Markov
5
...
𝑋 est
appelé un processus stochastique à temps discret
...
Nous considérons des processus dont la loi future ne dépend du passé
qu’à travers l’état présent, ce qui nous mène naturellement à la définition
suivante
...
𝑃(𝑋 𝑛+1 = 𝐽|𝑋 𝑛 = 𝑖, 𝑋 𝑛−1 = 𝑖 𝑛−1 , … , 𝑋0 = 𝑖0 )
= 𝑃(𝑋 𝑛+1 = 𝐽|𝑋 𝑛 = 𝑖) …
...
Celle-ci est dite
homogène si le second membre de (1) ne dépend pas de n
...
On notre la probabilité d’aller de l’état i à l’état j par :
𝑃𝑖𝑗 = 𝑃(𝑋 𝑛+1 = 𝐽|𝑋 𝑛 = 𝑖)
...
Exemple :
Considérons par exemple un poste téléphonique
...
On a donc E = {0, 1}
...
On suppose qu'à
un temps t, il y a une probabilité p que la ligne soit occupée, et que, si la
ligne est occupée, il y a une probabilité q pour que la ligne soit libre au
temps suivant
...
Ils sont dans [0, 1]
(probabilités)
...
1
...
Elle vérifie la propriété suivante :
35
Chaines de Markov
𝑃𝑖𝑗 ≥ 0 𝑒𝑡 ∑ 𝑘∈𝐸 𝑃𝑖𝑘 = 1
...
,N
...
, N − 1}, il y a une probabilité p qu'il aille à droite (en i +
1) au temps suivant, et une probabilité 1 − p qu'il aille à gauche en i − 1
...
La matrice de transition de cette chaîne de Markov vérifie : Pi,i+1 = p
Pi,i−1 = 1 − p, P1,2 = Pn−1,n = 1 et les autres Pij valent 0
...
Si p = 1/2, on parle de marche aléatoire symétrique
...
2
...
𝑧∈𝐸
Précisément, cela découle de l’associativité du produit matriciel :
𝑃 𝑛+𝑚 = 𝑃 𝑛 𝑃 𝑚
...
On convient de noter la loi de 𝑋0 comme une vecteur ligne de
taille M
...
, P (𝑋0 = M)]
...
5
...
Graphe de transition:
On représente très souvent une chaîne de Markov à l’aide d’un graphe
sur l’espace d’états E, appelé graphe de transition (graphe orienté)
...
Les arêtes orientées sont les couples (x, y) tels que P(x, y) > 0
...
Exemple :
Par exemple, on a la matrice de transition suivante
...
4
...
Un état K est dit conséquent d’un état j (ou aussi : l’état K est
accessible à partir de l’état j), s’il existe un entier N ≥ 0 tel que
𝑃𝑗𝑘 (N)> 0 ; autrement dit, si la probabilité de passer de l’état j à
l’état K en N étapes est non nulle
...
1
1
P=( 2
1
0
2)
L’espace d’état de cette matrice est E= {i, j}
...
2
Deux états j et k sont dits communicants si j est conséquent de k
est k conséquent de j
...
Le jeu se terminera si le joueur gagne 3$ ou il est fauche
...
1 0
1− 𝑝 0
P=(
0 1− 𝑃
0
0
0
𝑝
0
0
0
0
)
𝑝
1
On voit que l’état 1 communique avec l’état 2
...
Ce qui permet de réaliser une partition de
38
Chaines de Markov
E en classe disjointes ( classe d’équivalence), telle que tous les états
d’une classe communiquent entre eux et que deux états
appartenant à deux classes différentes ne communiquent jamais
...
𝑛 ≥ 0) est dite irréductible si tous les états
communiquent entre eux
...
Un état 𝑖 ∈ 𝐸 est dit transitoire si la chaine ne retourne jamais à cet
état
Un état 𝑖 ∈ 𝐸 est dit récurrent si 𝑖 n’est pas transitoire
...
La période d’un état i est le plus grand diviseur commune de {n ∈ℕ
𝑃
(𝑛)
𝑖𝑖
>0}
...
Un état 𝑖 ∈ 𝐸 est dit périodique si pgcd {n∈ ℕ𝑃
(𝑛)
𝑖𝑖
>0} >1
...
Exemple :
Considérons la chaine de Markov de probabilité de transition
...
L’état 1 : est récurrent
...
L’état 3 : est récurrent
...
La périodicité :
(𝑛)
L’état 1 : pgcd {𝑛 ∈ ℕ, 𝑃 > 0} 𝑝𝑔𝑐𝑑 {1
...
11
(𝑛)
L’état 2 : pgcd {𝑛 ∈ ℕ, 𝑃22 > 0} = 3
...
2 et 3 sont périodique et l’état 1 apériodique
...
5
...
Propriété de Markov faible :
On suppose toujours E dénombrable
...
Cette propriété,
appelée propriété de Markov faible
...
Ou de manière équivalente
...
Où :
𝔼 𝑋 𝑛 (𝑔(𝑋0 ), 𝑔(𝑋1 ), … ) = ℎ(𝑋 𝑛 ) et ℎ(𝑥) = 𝔼 𝑥 (𝑔(𝑋0 ), 𝑔(𝑋1 ), … )
...
2
...
En d’autres termes, à
40
Chaines de Markov
chaque instant (déterministe) n ≥ 0 l’événement {T ≤ n} ("T est antérieur
au temps n") est mesurable par rapport à (X0 …Xn )
...
L’observateur peut même décider si T = 0, si T = 1,
...
Un temps d’arrêt peut prendre la valeur ∞
...
6
...
Alors, conditionnellement à l’événement XT = 𝑖, les
variables aléatoires (X0 , … , XT ) et (XT , XT+1 , …) sont indépendantes et,
pour toute fonction g mesurable sur 𝔼 𝑁
...
Remarque :
On déduit immédiatement du théorème que :
𝔼(𝑔(𝑋 𝑇 , 𝑋 𝑇+1 , … )|𝑋0 = 𝑖0 , 𝑋1 = 𝑖1 , … , 𝑋 𝑇 = 𝑖 ) = 𝔼 𝑖 (𝑔(X0 , X1 , … ))
...
5
...
Théorèmes ergodiques :
On suppose que E est fini ou dénombrable et que ℰ = P(E)
...
Définition :
Une mesure positive ν sur E est dite stationnaire ou invariante
pour la probabilité de transition P si ν n’est pas identiquement nulle et si
νP = ν
...
Si ν est invariante pour P, alors λν est aussi invariante pour
P, quelque soit λ ∈]0, +∞]
...
« Graphe d’une chaîne de Markov à deux états, où a, b ∈ ]0, 1[ »
Rappelons que pour toute mesure de probabilité ν, νP est la
loi de 𝑋1 sous la probabilité ℙ 𝑣
...
C’est cette
propriété qui justifiera par la suite l’appellation (abusive) "mesure
invariante pour X"
...
Soit ν une mesure invariante finie pour P
...
Par contraposée, tout point
transitoire x ∈ E vérifie ν({x}) = 0
...
Dans ce cas, ν𝑃 𝑛
est la loi de 𝑋 𝑛 sous ℙ 𝑣
...
Puisque ν est une mesure finie, on
𝑛→∞
𝑛→∞
déduit que :
lim (𝜈𝑃 𝑛 ) 𝑥 = lim ℙ 𝑣 (𝑋 𝑛 = 𝑥) = 0
...
Par conséquent,
ν ({x}) =0
...
On suppose que, pour
tout y ∈ E, la suite([𝑃 𝑛 ] 𝑥,𝑦 ) 𝑛≥0 converge
...
𝑣({𝑦}) = lim [𝑃 𝑛 ] 𝑥,𝑦 = lim ℙ 𝑥 (𝑋 𝑛 = 𝑦)
𝑛→∞
𝑛→∞
Est une probabilité invariante sur E pour la matrice de probabilité de
transition P
...
Dans ce
cas, le vecteur [𝑃 𝑛 ] 𝑥,
...
De plus, µ → µP est une fonction continue surℳ1 (E), donc on a :
𝑣𝑃 = ( lim [𝑃 𝑛 ] 𝑥,
...
𝑃) = ( lim [𝑃 𝑛+1 ] 𝑥,
...
𝑛→∞
𝑛→∞
𝑛→∞
Définition :
On dit qu’une chaîne de Markov (𝑋 𝑛 ) 𝑛 est irréductible si, pour tout x,y ∈
E ,∃ n ≥ 0 tel que ℙ 𝑥 (𝑋 𝑛 = 𝑌) > 0
...
Si la chaîne de Markov homogène X est irréductible transitoire,
alors elle n’admet aucune mesure invariante de masse finie
...
multiplicative près
...
Si E est fini et X est irréductible, alors c’est le premier cas qui
s’applique
...
Elle est dite nulle
dans le cas contraire
...
̅
Pour toute fonction f : E →ℝ ν-intégrable ou positive, on a pour tout x ∈
E
...
𝑠 1
∫ 𝑓 𝑑𝑣
𝑛
𝑛→+∞
∑ 𝑖=0 1 𝑋 𝑖 =𝑥 ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ 𝑣({𝑥}) 𝐸
Corollaires
Supposons que X est irréductible récurrente
...
Si X est irréductible récurrente positive de probabilité invariante ν,
alors, pour tout x ∈ E
...
𝑠
⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑛→+∞
𝑖=0
1
...
𝑠
⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝑛→+∞
∫ 𝑓 𝑑𝑣
...
Si X est irréductible récurrente nulle, alors
44
Chaines de Markov
𝑛
1
∑ 1 𝑋 𝑖=𝑥
𝑛
ℙ 𝑥 𝑝
...
𝑖=0
Et, plus généralement, pour toute fonction f ν –intégrable
𝑛
1
∑ 𝑓(𝑋 𝑖 )
𝑛
ℙ 𝑥 𝑝
...
𝑖=0
45
Conclusion
A la fin de ce travail nous citons quelques applications des chaines de
Markov, ces applications représentent un champ de recherche très vaste
...
Les processus de Markov à temps continu sont largement utilisés
dans l’économie et la finance comme exemple le processus d’Ito
...
Le plus reconnu est la simulation de monte Carlo
comme exemple d’application en physique statistique et en traitement
d’images
...
46
Références bibliographiques
[1] Arnaud Guyader, Espérance conditionnelle et Chaînes de
Markov, Université Rennes 2 Licence MASS 3
...
Dalang Robert et Conus Daniel, Introduction à la théorie
des probabilités, Presses polytechniques et universitaires
romandes 2008
...
Notes de cours stage LIESSE, Année
2013-2014
[6] Didier Piau, Processus markoviens, Université Joseph
Fourier, Cours M2R Mathématiques, Année 2006-2007
...
[8] Pierre Brémaud, initialisation aux probabilités et aux
chaines de MarKov, Springer
[9] Rick Durrett
...
Springer
Texts in Statistics
...
47
Description: Nous nous intéresserons durant ce travail de fin d’étude de master à l’espérance conditionnelle et aux chaines de Markov (à temps discret) et ce dans le but de renforcer la formation en probabilités. Nous commencerons d’abord par rappeler les notions de base des probabilités, à savoir un espace probabilisé et une variable aléatoire et son espérance. Ensuite, nous verrons la notion d’indépendance pour laisser place à celles de probabilités et espérance conditionnelles. À la fin, nous aurons suffisamment de connaissances pour introduire les chaines de Markov.