Martingale (calcul stochastique)

Cet article est une ébauche concernant les mathématiques.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Consultez la liste des tâches à accomplir en page de discussion.

Page d’aide sur l’homonymie

Pour les articles homonymes, voir martingale (homonymie).

Une martingale est une séquence de variables aléatoires X t {\displaystyle X_{t}} (autrement dit un processus stochastique), telles que l'espérance mathématique E ( X t ) {\displaystyle E(X_{t})} à l'instant t {\displaystyle t} , conditionnellement à l'information disponible à un moment préalable s {\displaystyle s} , notée F s {\displaystyle F_{s}} , vaut E ( X t | F s ) = X s {\displaystyle E(X_{t}|F_{s})=X_{s}} (avec s t {\displaystyle s\leq t} ).

En particulier, dans un processus discret (t entier), E ( X t + 1 | X 0 , X 1 , . . . X t ) = X t {\displaystyle E(X_{t+1}|X_{0},X_{1},...X_{t})=X_{t}} .

Une martingale peut modéliser les gains / pertes accumulés par un joueur au cours de répétitions indépendantes d'un jeu de hasard à espérance nulle (même si le joueur s'autorise à modifier sa mise en fonction des gains passés), d'où l'emprunt du terme martingale au monde du jeu.

On dira que X {\displaystyle X} est un processus adapté à la filtration F {\displaystyle F} .

On parlera de sous-martingale si E ( X t | F s ) X s {\displaystyle E(X_{t}|F_{s})\geq X_{s}} et de sur-martingale si E ( X t | F s ) X s {\displaystyle E(X_{t}|F_{s})\leq X_{s}} .

Définitions

Processus stochastique

Un processus stochastique est une famille de variables aléatoires, généralement indexée par R + {\displaystyle \mathbb {R} ^{+}} ou N {\displaystyle \mathbb {N} } .

Filtration

Une filtration est une suite croissante de tribus (ou sigma-algèbres) ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} , c'est-à-dire F n F n + 1 ,     n N {\displaystyle {\mathcal {F}}_{n}\subset {\mathcal {F}}_{n+1},\ \ \forall n\in \mathbb {N} } .

Filtration naturelle

Soit ( X n ) n 0 {\displaystyle (X_{n})_{n\geq 0}} une suite de variables aléatoires. On dit que ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} définie par F n = σ ( X 0 , , X n ) ,   n N {\displaystyle {\mathcal {F}}_{n}=\sigma (X_{0},\ldots ,X_{n}),\ \forall n\in \mathbb {N} } est la filtration naturelle de la suite ( X n ) n 0 {\displaystyle (X_{n})_{n\geq 0}} .

Processus adapté

On dit que le processus ( X n ) n 0 {\displaystyle (X_{n})_{n\geq 0}} est adapté à la filtration ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} si X n {\displaystyle X_{n}} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable pour tout entier n.

Martingale dans N {\displaystyle \mathbb {N} }

Soit ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} une filtration.

Soit ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} une suite de variables aléatoires.

On dit que ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} est une martingale par rapport à ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} si:

  1. ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} est adaptée à la filtration ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} .
  2. M n {\displaystyle M_{n}\,} est intégrable pour tout entier n.
  3. E ( M n + 1 | F n ) = M n {\displaystyle E(M_{n+1}|{\mathcal {F}}_{n})=M_{n}} .

Si ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} respecte les deux premières conditions, et E ( M n + 1 | F n ) M n   n {\displaystyle E(M_{n+1}|{\mathcal {F}}_{n})\geq M_{n}\ \forall n} alors on l'appelle sous-martingale, et si E ( M n + 1 | F n ) M n   n {\displaystyle E(M_{n+1}|{\mathcal {F}}_{n})\leq M_{n}\ \forall n} , alors on l'appelle sur-martingale.

On dit que ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} est une F n {\displaystyle {\mathcal {F}}_{n}} -martingale.

Processus prévisible

Soit ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} une filtration.

Soit ( Y n ) n 0 {\displaystyle (Y_{n})_{n\geq 0}} une suite de variables aléatoires.

On dit que ( Y n ) n 0 {\displaystyle (Y_{n})_{n\geq 0}} est un processus prévisible si Y 0 {\displaystyle Y_{0}\,} est F 0 {\displaystyle {\mathcal {F}}_{0}} -mesurable et Y n + 1 {\displaystyle Y_{n+1}\,} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable pour tout entier n.

Situation générale

Sur les espaces de Banach

Soit

  • I {\displaystyle I} un ensemble partiellement ordonné
  • ( E , E ) {\displaystyle (E,\|\cdot \|_{E})} un espace de Banach
  • ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)} un espace probabilisé avec filtration F = ( F t ) t I {\displaystyle \mathbb {F} =({\mathcal {F}}_{t})_{t\in I}}
  • X = ( X t ) t I {\displaystyle X=(X_{t})_{t\in I}} une processus stochastique sur E {\displaystyle E}

Alors X {\displaystyle X} est appelé un F {\displaystyle \mathbb {F} } - P {\displaystyle P} -martingale, si

  1. X {\displaystyle X} est F {\displaystyle \mathbb {F} } -adapté,
  2. t I , {\displaystyle \forall t\in I,} X t L 1 ( Ω , F t , P ; E ) {\displaystyle X_{t}\in L^{1}(\Omega ,{\mathcal {F}}_{t},P;E)} , cela signifie E X t E < {\displaystyle \mathbb {E} \|X_{t}\|_{E}<\infty } ,
  3. E [ X t | F s ] = X s {\displaystyle \mathbb {E} [X_{t}|{\mathcal {F}}_{s}]=X_{s}} P {\displaystyle P} -presque sûrement pour tous s , t I {\displaystyle s,t\in I} avec t s {\displaystyle t\geq s} .

Si en plus est vrai

  • t I , {\displaystyle \forall t\in I,} X t L p ( Ω , F t , P ; E ) {\displaystyle X_{t}\in L^{p}(\Omega ,{\mathcal {F}}_{t},P;E)} , cela signifie E X t E p < {\displaystyle \mathbb {E} \|X_{t}\|_{E}^{p}<\infty } ,

alors X {\displaystyle X} est un L p ( F , P ) {\displaystyle L^{p}(\mathbb {F} ,P)} -martingal ou court L p {\displaystyle L^{p}} -martingal[1].

Historique du nom

Donnons ici une histoire anti-chronologique du nom (et non du concept) de martingale (issue de cette note[2]).

En théorie des probabilités, la première apparition du mot martingale (et non du concept) se trouve dans la thèse[3] de Jean Ville (en 1939), au chapitre IV, paragraphe 2 dans l'expression : « système de jeu ou martingale ». Il précise que ce terme est emprunté du vocabulaire des joueurs. Notons que la dénomination anglaise (martingale) a été reprise de la française par Joseph Leo Doob, alors rapporteur de la thèse de Ville.

La martingale dans les jeux

Dans le langage des jeux, le terme martingale, le dictionnaire[4] de l'Abbé Antoine François Prévost de 1750, définit le terme comme une stratégie qui consiste pour le joueur à doubler sa mise à chaque perte "pour se retirer avec un gain sûr, supposé qu'il gagne une fois". Plus tôt, en 1611, le dictionnaire franco-anglais de Randle Cotgrave[5]. définit L'expression « à la martingale » avec les termes : absurdly, foolishly, untowardly, grossely, rudely, in the homeliest manner (absurde, stupide, fâcheusement, grossièrement, brutalement, de manière laide). Notons que le terme martingale fait son apparition dans le dictionnaire de l'Académie française en 1762.

Selon une expression provençale[6], jouga a la martegalo signifierait : jouer de manière incompréhensible, absurde. C'est peut-être l'origine de l'application du terme "martingale" aux jeux. On peut penser que la stratégie de martingale peut être considérée comme absurde.

La martingale est absurde ?

Le terme martegalo se rapporte aux habitants de Martigues. La situation isolée de Martigues, au XVIe siècle, « a valu à ses habitants une réputation de naïveté proverbiale » ; on leur attribue une certaine « badauderie », de la « naïveté » ainsi que « des propos goguenards »[2].

Propriétés

Propriété 1

Soit ( M n ) n 0 {\displaystyle (M_{n})_{n\geq 0}} une martingale.

On a E ( M n + 1 ) = E ( E ( M n + 1 | F n ) ) = E ( M n ) = = E ( M 0 ) {\displaystyle E(M_{n+1})=E(E(M_{n+1}|{\mathcal {F}}_{n}))=E(M_{n})=\ldots =E(M_{0})}

Autrement dit, la suite ( E ( M n ) ) n 0 {\displaystyle (E(M_{n}))_{n\geq 0}} est constante.

Exemples de martingales

  • Soit X {\displaystyle X\,} une variable aléatoire intégrable et X n := E ( X | F n ) {\displaystyle X_{n}:=E(X|{\mathcal {F}}_{n})} .

Alors ( X n ) n {\displaystyle (X_{n})_{n}\,} est une F n {\displaystyle {\mathcal {F}}_{n}} -martingale.

  • Soit ( X k ) k {\displaystyle (X_{k})_{k}\,} une suite de variables aléatoires indépendantes et centrées.

La suite ( S n ) n {\displaystyle (S_{n})_{n}\,} définie par S n := k = 1 n X k {\displaystyle S_{n}:=\sum _{k=1}^{n}X_{k}} est une F n {\displaystyle {\mathcal {F}}_{n}} -martingale avec F n = σ ( X 0 , , X n ) {\displaystyle {\mathcal {F}}_{n}=\sigma (X_{0},\ldots ,X_{n})} [7].

  • Soit ( X n ) n {\displaystyle (X_{n})_{n}} une F n {\displaystyle {\mathcal {F}}_{n}} -martingale, soit ( Y n ) n {\displaystyle (Y_{n})_{n}} un processus borné prévisible par rapport à ( F n ) n {\displaystyle ({\mathcal {F}}_{n})_{n}} .

Alors ( Z n ) n {\displaystyle (Z_{n})_{n}\,} définie par Z n := Y 0 X 0 + k = 1 n Y k ( X k X k 1 ) {\displaystyle Z_{n}:=Y_{0}X_{0}+\sum _{k=1}^{n}Y_{k}(X_{k}-X_{k-1})} est une F n {\displaystyle {\mathcal {F}}_{n}} -martingale.

  • Martingale de Doob

On étudie l'espérance conditionnelle d'une variable aléatoire X selon une suite de variables aléatoires ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbb {N} }} définies sur le même espace probabilisé et on pose :

X n = E [ X | Y 0 , . . . , Y n ] {\displaystyle X_{n}=\mathbb {E} [X|Y_{0},...,Y_{n}]}

La suite des ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} est appelée martingale de Doob.

  • Martingale de Wald

On définit la suite des ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} selon la fonction génératrice d'une suite de variables aléatoires indépendantes identiquement distribuées ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbb {N} }}

X n = e t i = 1 n Y i E [ e t Y ] n {\displaystyle X_{n}=e^{t\sum _{i=1}^{n}Y_{i}}\,\mathbb {E} [e^{tY}]^{-n}}

La suite des ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} est appelée martingale de Wald.

  • Exemple de martingale à temps continu

On peut par exemple définir des martingales avec des mouvements browniens. Ceci a de nombreux liens avec l'intégration stochastique. On commence par définir la filtration comme étant la filtration naturelle d'un mouvement brownien standard ( B t ) t {\displaystyle (B_{t})_{t}} . Alors le processus stochastique ( M t = B t 2 t ) t {\displaystyle (M_{t}=B_{t}^{2}-t)_{t}} est une martingale. Ceci donne par ailleurs la décomposition de Doob de la sous-martingale ( B t 2 ) t {\displaystyle (B_{t}^{2})_{t}}

Martingales et temps d'arrêts

Théorème 1

Soit ( M n ) n {\displaystyle (M_{n})_{n}\,} une F n {\displaystyle {\mathcal {F}}_{n}} martingale et T {\displaystyle T\,} un temps d'arrêt.

Alors ( M n T ) n {\displaystyle (M_{n\wedge T})_{n}\,} est une martingale (appelée "martingale arrêtée").


Démonstration
  • M n T = j = 1 n 1 M j 1 ( T = j ) + M n 1 ( T n ) {\displaystyle M_{n\wedge T}=\sum _{j=1}^{n-1}M_{j}*1_{(T=j)}+M_{n}*1_{(T\geq n)}} .

k < n   M k   e t   1 ( T = j ) {\displaystyle \forall k<n\ M_{k}\ et\ 1_{(T=j)}} sont F n {\displaystyle {\mathcal {F}}_{n}} -mesurable.

( T n ) = ( T < n ) c = ( k = 0 n 1 ( T = k ) ) c F n {\displaystyle (T\geq n)=(T<n)^{c}=(\bigcup _{k=0}^{n-1}(T=k))^{c}\in {\mathcal {F}}_{n}} .

Donc M n T {\displaystyle M_{n\wedge T}\,} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable

  • | M n T | | M n | + | j = 1 n 1 M j | {\displaystyle |M_{n\wedge T}|\leq |M_{n}|+|\sum _{j=1}^{n-1}M_{j}|} d'où M n T {\displaystyle M_{n\wedge T}\,} est intégrable.
  • E ( M n + 1 T | F n ) = E ( j = 1 n 1 + 1 M j 1 ( T = j ) | F n ) + E ( M n + 1 1 ( T n + 1 ) | F n ) {\displaystyle E(M_{n+1\wedge T}|{\mathcal {F}}_{n})=E(\sum _{j=1}^{n-1+1}M_{j}*1_{(T=j)}|{\mathcal {F}}_{n})+E(M_{n+1}*1_{(T\geq n+1)}|{\mathcal {F}}_{n})} .

Or M j   e t   1 ( T = j ) {\displaystyle M_{j}\ et\ 1_{(T=j)}} sont F n {\displaystyle {\mathcal {F}}_{n}} -mesurable j n {\displaystyle \forall j\leq n} , de même pour 1 ( T n + 1 ) {\displaystyle 1_{(T\geq n+1)}} .

E ( M n + 1 T | F n ) = j = 1 n M j 1 ( T = j ) + 1 ( T n + 1 ) E ( M n + 1 | F n ) = j = 1 n M j 1 ( T = j ) + 1 ( T n + 1 ) M n = M n T {\displaystyle E(M_{n+1\wedge T}|{\mathcal {F}}_{n})=\sum _{j=1}^{n}M_{j}*1_{(T=j)}+1_{(T\geq n+1)}*E(M_{n+1}|{\mathcal {F}}_{n})=\sum _{j=1}^{n}M_{j}*1_{(T=j)}+1_{(T\geq n+1)}*M_{n}=M_{n\wedge T}} .
 

Corollaire

E ( M 0 ) = E ( M n T ) {\displaystyle E(M_{0})=E(M_{n\wedge T})} .

Décomposition de Doob-Meyer

Article détaillé : Décomposition de Doob-Meyer.

La décomposition de Doob-Meyer permet de décomposer un processus stochastique intégrable adapté en une martingale et un processus prévisible.

Bibliographie

  • Paolo Baldi, Laurent Mazliak et Pierre Priouret, Martingales et chaînes de Markov, Hermann, , 216 p. (ISBN 2 70 566425 4, présentation en ligne)
  • Dominique Foata et Aimé Fuchs, Processus stochastiques : Processus de Poisson, chaînes de Markov et martingales, Dunod, , 256 p. (ISBN 2 10 048850 3, présentation en ligne)
  • (en) David Williams, Probability with martingales, Cambridge University Press, (1re éd. 1991), 265 p. (ISBN 978-0-521-40605-5, présentation en ligne)

Article connexe

Notes et références

  1. Tuomas Hytönen, Jan van Neerven, Mark Veraar et Lutz Weis, Analysis in Banach Spaces, Volume I: Martingales and Littlewood-Paley Theory, Springer Cham, (DOI 10.1007/978-3-319-48520-1)
  2. a et b Roger Mansuy, « Histoire des martingales », Math. & Sci. hum. / Mathematical Social Sciences (43e année),‎ 2005 (1), p. 105-113 (lire en ligne).
  3. Ville, J., Étude critique de la notion de collectif, Paris, Gauthier-Villars,
  4. [1] Manuel lexique ou dictionnaire portatif des mots François (1750).
  5. A Dictionarie of the French and English Tongues A Dictionarie of the French and English Tongues, Randle Cotgrave, édition originale de 1611.
  6. [2], voir Lou Trésor dou Félibrige ou Dictionnaire de provençal-français (1879), de Frédéric Mistral pour les expressions provençales.
  7. σ ( X 0 , , X n ) {\displaystyle \sigma (X_{0},\ldots ,X_{n})} désigne la tribu engendrée par les X i {\displaystyle X_{i}} donc l'ensemble des parties de { X 0 , , X n } {\displaystyle \{X_{0},\ldots ,X_{n}\}}
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique