Logo de l'ICJ Julian Tugaut

Maître de Conférences à Télécom Saint-Étienne

Sommaire

  1. 1. Diffusions de McKean-Vlasov
  2. 2. Théorie de Freidlin et Wentzell
  3. 3. Ensembles de Kalman
  4. 4. Champs gaussiens
  5. 5. Optimisation et Algorithmes stochastiques
  6. 6. Inégalités fonctionnelles
  7. 7. Calcul de Malliavin
  8. 8. Théorie du potentiel
  9. 9. Résonance stochastique
  10. 10. Systèmes lents-rapides
  11. 11. Équations aux derivées partielles stochastiques

Diffusions de McKean-Vlasov

    Depuis le début de mon doctorat, je me suis intéressé aux diffusions auto-stabilisantes, \(\left(\overline{X}_t\right)_{t\geq0}\). Il s'agit de processus non-homogènes au sens de McKean. La propre loi de la diffusion intervient dans la dérive. Dans les cas que j'ai considérés, celle-ci est le gradient du potentiel \(W_t:=V+F\ast\mu_t\) où \(\mu_t:=\mathcal{L}\left(\overline{X}_t\right)\) est la loi de la diffusion \(\overline{X}\) au temps \(t\) et \(\ast\) correspond à une convolution. L'équation aux dérivées partielles qui lui est associée - dite des milieux granulaires - est ainsi non-linéaire : \[\frac{\partial}{\partial t}\mu_t={\rm div}\left[\frac{\sigma^2}{2}\nabla\mu_t+\mu_t\left(\nabla V+\nabla F\ast\mu_t\right)\right]\,.\]     Une telle diffusion correspond à la limite hydrodynamique d'un système de particules en interaction de type champ moyen : \[ \left\{\begin{array}{ll} X_t^1=X_0^1+\sigma B_t^1-\int_0^t\nabla V\left(X_s^1\right)ds-\frac{1}{N}\sum_{j=1}^N\int_0^t\nabla F\left(X_s^1-X_s^j\right)ds\\ \vdots\\ X_t^i=X_0^i+\sigma B_t^i-\int_0^t\nabla V\left(X_s^i\right)ds-\frac{1}{N}\sum_{j=1}^N\int_0^t\nabla F\left(X_s^i-X_s^j\right)ds\\ \vdots\\ X_t^N=X_0^N+\sigma B_t^N-\int_0^t\nabla V\left(X_s^N\right)ds-\frac{1}{N}\sum_{j=1}^N\int_0^t\nabla F\left(X_s^N-X_s^j\right)ds \end{array}\right.\,. \]     En effet, lorsque le nombre de particules \(N\) d'un tel système approche l'infini, chacune d'entre elles tend à être indépendante des autres, par un phénomène dit de propagation du chaos. De plus, chaque particule \(X^i\) tend à se comporter comme une diffusion auto-stabilisante, \(\overline{X}^i\).

    Ce modèle peut se rencontrer dans des problèmes de filtration, lorsque l'on considère des interactions sociales, la contraction des cellules musculaires mais également lorsque l'on s'intéresse à un marché où les agents économiques adaptent leurs choix en fonction du comportement global du marché.

    Lorsque \(V\) et \(F\) sont tous les deux convexes, le comportement à petit bruit et celui à temps long sont bien compris puisqu'il y a une unique mesure de probabilité invariante \(\mu^\sigma\). Toutefois, la non-convexité de \(V\) ou celle de \(F\) introduit des difficultés puisqu'un certain nombre d'outils ne peuvent plus être utilisés.

(Retourner au sommaire)

Théorie de Freidlin et Wentzell

    Depuis 2006, je m'intéresse à la théorie des grandes déviations et plus spécialement à la théorie de Freidlin et Wentzell. Considérons une diffusion \(\left(x_t\right)_{t\in\mathbb{R}_+}\) : \[ x_t=x_0+\sigma\beta_t-\int_0^t\nabla V\left(x_s\right)ds\,, \] où \(\left(\beta_t\right)_{t\in\mathbb{R}_+}\) est un Mouvement Brownien et \(V\) est un potentiel de \(\mathbb{R}^d\). Lorsque le coefficient de diffusion \(\sigma\) est petit, la trajectoire \(\left(x_t\right)_{t\in[0;T]}\) est "proche" de la trajectoire déterministe \(\left(\psi_t(x_0)\right)_{t\in[0;T]}\) où l'on a \(\psi_t(x_0)=x_0-\int_0^t\nabla V\left(\psi_s(x_0)\right)ds\).

    En particulier, on s'intéresse aux grandes déviations par rapport à cette trajectoire déterministe. Notamment, on peut utiliser la théorie de Freidlin et Wentzell pour déterminer le temps que le processus met pour sortir d'un domaine donné de \(\mathbb{R}^d\). Le résultat est bien connu dans le cas d'une diffusion classique sous certaines hypothèses simples à vérifier. Pour tout \(\delta>0\), on a : \[ \lim_{\sigma\to0}\mathbb{P}\left\{\exp\left[\frac{2}{\sigma^2}\left(H-\delta\right)\right]\leq\tau_{\mathcal{D}}(\sigma)\leq\exp\left[\frac{2}{\sigma^2}\left(H+\delta\right)\right]\right\}=1\,, \] où \(H>0\) est la valeur minimale du potentiel \(V\) sur le bord du domaine \(\mathcal{D}\) moins la valeur minimale du potentiel \(V\) sur le domaine \(\mathcal{D}\). Je m'intéresse à établir de tels résultats pour des diffusions inhomogènes en temps comme la diffusion de McKean-Vlasov ou la diffusion auto-interagissante.

(Retourner au sommaire)

Ensembles de Kalman

    Depuis avril 2016, je m'intéresse aux filtres de Kalman-Bucy et notamment à leur interprétation en tant que systèmes de particules, ce que l'on appelle les Ensembles de Kalman. On considère l'équation linéaire suivante : \[ dX_t=\left(AX_t+a\right)dt\,, \] où \(X_0\) est une variable aléatoire gaussienne évoluant dans \(\mathbb{R}^{r_1}\). Dans des applications concrètes comme les sciences de l'océan et de l'athmosphère, \(r_1\) peut être égal à \(10~000\). Ici, \(A\) est une matrice carrée de taille \(r_1\) et \(a\) est un vecteur de \(\mathbb{R}^{r_1}\). Le problème est que l'on n'a pas accès à \(X_t\) bien qu'il s'agisse du signal d'intérêt. Néanmoins, on a accès au signal \(Y\) défini comme suit : \[ dY_t=\left(CX_t+c\right)dt\,, \] où \(Y_0=0\). Ici, \(Y_t\) est une variable aléatoire évoluant dans \(\mathbb{R}^{r_2}\). En pratique, \(r_2\) est strictement plus petit que \(r_1\). Comment trouver \(X\) en connaissant \(Y\)?

    On introduit la matrice \(M\in\mathcal{M}_{r_1\times r_2,r_1}\) définie par \[ M:=\left( \begin{array}{c} C\\ CA\\ \vdots\\ CA^{r_1-1} \end{array}\right)\,. \]     On suppose que le rang de la matrice \(M\) est \(r_1\). Alors, la connaissance de \(Y\) (et de ses incréments donc) est suffisante pour décrire le processus \(X\). Cette condition d'observabilité est par ailleurs nécessaire.

    Dans les cas pratiques, des perturbations apparaissent dans l'équation de la variable d'état et dans celle de la variable d'observation. In fine, le système d'équation est : \[ \left\{ \begin{array}{l} dX_t=(Ax_t+a)dt+R_1^{\frac{1}{2}}dW_t\\ dY_t=(CX_t+c)dt+R_2^{\frac{1}{2}}dV_t \end{array}\right.\,. \]     On pose \(\mathcal{F}_t:=\sigma\left(Y_s\,\,:\,\,0\leq s\leq t\right)\). Et, \(\eta_t\) dénote la loi de \(X_t\) sachant \(\mathcal{F}_t\). Il est connu que la loi conditionnelle \(\eta_t\) est gaussienne donc elle est caractérisée par son espérance et par sa variance. On pose donc \(\widehat{X}_t:=\mathbb{E}\left[X_t\,\left|\right.\,\mathcal{F}_t\right]\) et \(P_t:=\mathbb{E}\left\{\left(X_t-\widehat{X}_t\right)\left(X_t-\widehat{X}_t\right)^T\right\}\). De plus, on dispose de l'équation (filtre de Kalman-Bucy) suivante : \[ d\widehat{X}_t=\left(A\widehat{X}_t+a\right)dt+P_tC^TR_2^{-1}\left(dY_t-\left(C\widehat{X}_t+c\right)dt\right)\,, \] ainsi que de l'équation de Riccati sur \(P_t\) : \[ \frac{d}{dt}P_t=AP_t+P_tA^T-P_tC^TR_2^{-1}CP_t+R_1\,. \]     L'équation de Riccati est très coûteuse à simuler si \(r_1=10~000\) puisque multiplier deux matrices carrées de cette taille nécessite \(3\times10^{12}\) calculs élémentaires. On considère donc la diffusion suivante : \[ d\overline{X}_t=\left(A\overline{X}_t+a\right)dt+R_1^{\frac{1}{2}}d\overline{W}_t+\mathcal{P}_{\eta_t}C^TR_2^{-1}\left[dY_t-\left(C\overline{X}_t+c\right)dt+R_2^{\frac{1}{2}}d\overline{V}_t\right]\,. \]     Ici, \(\mathcal{P}_{\eta_t}:=\mathbb{E}\left\{\left(\overline{X}_t-\mathbb{E}\left[\overline{X}_t\,\left|\right.\,\mathcal{F}_t\right]\right)\left(\overline{X}_t-\mathbb{E}\left[\overline{X}_t\,\left|\right.\,\mathcal{F}_t\right]\right)^T\right\}\). C'est une équation de type McKean-Vlasov avec une loi conditionnelle au lieu de la loi du processus. On peut alors utiliser l'approximation classique suivante : \[ d\xi_t^i=\left(A\xi_t^i+a\right)dt+R_1^{\frac{1}{2}}d\overline{W}_t^i+\mathcal{P}_t^NC^TR_2^{-1}\left[dY_t-\left(C\xi_t^i+c\right)dt+R_2^{\frac{1}{2}}d\overline{V}_t^i\right]\,. \] Ici, \(\left(\overline{W}^i\right)_i\) est une famille de Mouvements Browniens indépendants dans \(\mathbb{R}^{r_1}\) et \(\left(\overline{V}^i\right)_i\) en est une dans \(\mathbb{R}^{r_2}\).

    Je m'intéresse à montrer une propagation du chaos uniforme de l'Ensemble de Kalman (le système de particules) vers la diffusion non-linéaire. Par ailleurs, je n'ai présenté ici qu'un cas où \(X\) évolue linéairement mais je m'intéresse aussi au cas non-linéaire.

(Retourner au sommaire)

Champs gaussiens

    Dans le cadre du groupe de travail que j'organise (voir ici), je m'intéresse depuis 2015 aux champs gaussiens. Il s'agit de la généralisation de la notion de processus gaussien. Un champ gaussien est une famille \(\left(X_t\right)_{t\in\mathcal{T}}\) de gaussiennes indexée par un espace topologique général \(\mathcal{T}\) (typiquement, \(\mathcal{T}\) est un compact de \(\mathbb{R}^d\) où \(d=2\) ou \(d=3\)) telle que toute combinaison linéaire de cette famille est une gaussienne.

    Il y a plusieurs façons de construire un champ gaussien. On peut utiliser la densité spectrale de puissance (la transformée de Fourier de la fonction d'auto-corrélation) dans le cas où le champ gaussien est stationnaire (par translation). Une autre manière est d'utiliser les espaces à noyaux auto-reproduisant. On se sert alors de l'isomorphisme entre l'espace gaussien et l'espace d'Aronsjazn engendré par la fonction de covariance.

    De plus, si la fonction de covariance souhaitée est continue, on peut prouver sous des hypothèses simples (vérifiées si \(\mathcal{T}\) est un compact de \(\mathbb{R}^d\) où \(d=2\) ou \(d=3\)) que le champ gaussien ainsi construit est lui-même continu.

    Je m'intéresse personnellement à la simulation de champs gaussiens qui ne présentent pas de stationnarité par translation. Une application directe du travail que je mène est le traitement du signal et de l'image.

(Retourner au sommaire)

Optimisation et Algorithmes stochastiques

    Depuis novembre 2011, je m'intéresse aussi à des applications plus concrètes des diffusions, à savoir celui des algorithmes stochastiques en optimisation. Typiquement, on se donne une fonction \(\varphi\) et l'on en cherche le minimum global ainsi que les points où ce minimum est atteint. Une méthode naïve consisterait à regarder le système dynamique \[dx_0(t)=-\nabla\varphi\left(x_0(t)\right)dt\,.\]     On sait que ce système déterministe converge vers un point critique de \(\varphi\). Toutefois, rien ne nous assure que ce point correspond à un minimum de potentiel ni même qu'il s'agit de l'argument du minimum global. En revanche, l'ajout d'un bruit additif de faible amplitude, \[dx_\sigma(t)=-\nabla\varphi\left(x_\sigma(t)\right)dt+\sigma dW_t\,,\] permet au système dynamique de s'échapper du domaine d'attraction pour visiter le reste de l'espace et ainsi de trouver en un temps fini le minimum global de \(\varphi\). La vitesse pour que le système atteigne le minimum global dépend du coefficient de diffusion \(\sigma\). Si celui-ci est trop grand, le mouvement brownien tend le système éloigné des puits de potentiel (ce qui devient problématique en dimension deux ou plus). S'il est trop petit, le temps pour s'échapper du domaine d'attraction d'un minimum local est trop élevé.

    Une méthode classique est celle du recuit simulé qui consiste à prendre une température de plus en plus faible. Une autre idée est celle du gradient moyenné, \[dy_\sigma(t)=\sigma dW_t-\frac{\int_0^th(s)\nabla\varphi\left(y_\sigma(s)\right)ds}{\int_0^th(s)ds}\,.\]     Une autre problématique liée à ce sujet est celle de Wang-Landau : il s'agit de trouver un processus - non nécessairement une diffusion - qui passe autant de temps dans chacun des ensembles de la forme \(\varphi^{-1}\left(\left[\lambda_1;\lambda_2\right]\right)\).

(Retourner au sommaire)

Inégalités fonctionnelles

    Au cours de mon doctorat mais aussi de mon M2 ainsi que de mon postdoctorat, les outils de type "inégalités fonctionnelles" ont été l'un de mes domaines d'études. J'ai notamment regardé l'inégalité de Poincaré, à savoir une inégalité de la forme \[\int\left|\left|\varphi(x)\right|\right|^2\mu(dx)\leq C\int\left|\left|\nabla\varphi(x)\right|\right|^2\mu(dx)\,,\] pour toutes les fonctions \(\varphi\) suffisamment régulières. Cette inégalité donne une convergence en temps long.
Afin d'obtenir une telle inégalité, on peut appliquer le critère de courbure-dimension de Bakry-Emery. Celui-ci recquiert des hypothèses de convexité uniforme. On peut s'en passer en utilisant le théorème de Muckenhoupt ou les résultats de Bakry, Barthe, Cattiaux et Guillin.

Je regarde également des inégalités de type WJ. En d'autres termes, on cherche à prouver qu'une mesure \(\mu\) vérifie l'inégalité \[\begin{align} C\int_{\mathbb{R}^d}\left|\left|x-\nabla\tau(x)\right|\right|^2\mu(dx)\leq&\int_{\mathbb{R}^d}\left\langle\nabla V\left(\nabla\tau(x)\right)-\nabla V(x)\,;\,\nabla\tau(x)-x\right\rangle\mu(dx)+\frac{\sigma^2}{2}\int_{\mathbb{R}^d}\Big(\Delta\tau(x)+\Delta\tau^*\left(\nabla\tau(x)\right)-2d\Big)\mu(dx)\\ &+\frac{1}{2}\iint_{\mathbb{R}^{2d}}\left\langle\nabla F\left(\nabla\tau(x)-\nabla\tau(y)\right)-\nabla F(x-y)\,;\,\left(\nabla\tau(x)-\nabla\tau(y)\right)-(x-y)\right\rangle\mu(dx)\mu(dy)\,,\end{align}\] où \(\tau\) est une fonction convexe de \(\mathbb{R}^d\) dans \(\mathbb{R}\) et \(\tau^*\) est sa transformée de Legendre. Cette inégalité relie la distance de Wasserstein entre deux mesures qui satisfont une équation aux dérivées partielles ainsi que leur dissipation. Elle permet d'établir des limites pour la distance de Wasserstein.

Citons quelques exemples d'applications des inégalités fonctionnelles autres que les comportements en temps long :

  1. 1. Concentration de la mesure.
  2. 2. Optimisation, transport de masse.
  3. 3. Isopérimétrie.

(Retourner au sommaire)

Calcul de Malliavin

    Un autre aspect des probabilités qui m'intérese est celui du calcul de Malliavin. En effet, dans le cadre de mes recherches sur le comportement à temps long des diffusions de McKean-Vlasov, je suis amené à supposer une certaine régularité de la loi initiale. En particulier, je ne peux a priori pas prendre une mesure de Dirac comme loi au temps \(t=0\). Se pose alors la question de savoir s'il y a une régularisation de la loi grâce au terme diffusif. Le calcul de Malliavin est connu pour être adapté à ce type de problème.

    Ce dernier repose généralement sur une formule d'intégration par parties. Présentons cela dans un cas simple. On se donne un Mouvement Brownien \(B\). On souhaite montrer - pour tout \(t>0\) - l'existence d'une variable aléatoire \(\xi_t\) telle que \[ \mathbb{E}\left[f'\left(B_t\right)\right]=\mathbb{E}\left[f\left(B_t\right)\xi_t\right]\,, \] pour toute fonction de classe \(\mathcal{C}^\infty\) à support compact. Dans le cas présent, on aura simplement \(\xi_t=\frac{B_t}{t}\). Dans le cas d'une diffusion général \(X\), on aura \(\mathbb{E}\left[\xi_t\,\left|\right.\,X_t\right]=-\frac{\nabla\rho_t}{\rho_t}\left(X_t\right)\) où \(\rho_t:=\mathcal{L}\left(X_t\right)\). On voit donc naturellement apparaître une majoration de l'information de Fisher dès lors que l'on a un contrôle sur \(\xi_t\).

    Je regarde ce problème pour des diffusions inhomogènes générales de la forme \[ X_t=X_0+\sigma B_t+\int_0^tV\left(s,X_s\right)ds\,. \]     Pour une telle diffusion, on peut montrer une régularisation de l'information de Fisher en \(\frac{1}{t^2}\).

(Retourner au sommaire)

Théorie du potentiel

    Je ne travaille pas encore à proprement parler sur la théorie du potentiel mais j'en connais les bases et j'envisage de prendre un étudiant en thèse sur ce sujet pour caractériser les bassins d'attraction à petit bruit des différentes probabilités invariantes de la diffusion de McKean-Vlasov. En effet, les résultats de Bovier et de ses co-auteurs exploitent la théorie du potentiel afin d'obtenir des résultats quant à la métastabilité des processus. Pour ce faire, ils donnent un calcul asymptotique du temps de sortie du dit processus. À noter qu'ils ont le préfacteur en plus de l'équivalence exponentielle ; ce que ne fait pas la théorie de Freidlin et Wentzell.

    Une part importante de la théorie du potentiel repose sur les fonctions harmoniques. Soit \(\mathcal{D}\) un domaine de \(\mathbb{R}^d\). Soit \(h\) une fonction localement intégrable. On dit que \(h\) est harmonique si et seulement si : \[ h(x)=\frac{1}{\left|\mathbb{B}(0,r)\right|}\int_{\mathbb{B}(x,r)}h(y)dy\,, \] pour tout \(x\in\mathcal{D}\), pour tout \(r\in\left]0;d\left(x;\partial\mathcal{D}\right)\right[\). Ici, \(\mathbb{B}(x,r)\) est la boule euclidienne de centre \(x\) et de rayon \(r\). On dispose alors de certaines bonnes propriétés sur \(h\) : elle est bornée, de classe \(\mathcal{C}^\infty\), de laplacien nul. À noter que le problème de Dirichlet permet de lier les fonctions harmoniques avec le temps de sortie du domaine.

(Retourner au sommaire)

Résonance stochastique

    L'une des motivations de mon doctorat était la résonance stochastique. La raison d'être du bruit est de s'opposer au signal. Pourtant, dans certains cas, lorsque l'intensité de celui-ci est optimale, la qualité du signal est améliorée. Lorsque le bruit est trop faible, il n'a pas d'influence notable. S'il devient trop fort, il masque l'information. On parle de résonance stochastique lorsque l'intensité du bruit est optimale.

    L'enjeu est de détecter la valeur optimale. Une bonne façon de déterminer l'optimalité ou non est de fournir une approximation du temps que met le processus pour quitter un état métastable.

    On retrouve le phénomène de résonance stochastique dans le phénomène de refroidissement et de réchauffement climatique.

(Retourner au sommaire)

Systèmes lents-rapides

    Je m'intéresse également aux systèmes lents-rapides. Il s'agit typiquement d'un système de deux équations sur deux variables. On se donne deux réels strictement positifs \(\varepsilon\) et \(\sigma\) tels que \(\sigma\ll\varepsilon\ll1\). On regarde le système : \[ \begin{align} &dx_t=\frac{1}{\varepsilon^2}f\left(x_t,y_t\right)dt+\frac{\sigma}{\varepsilon}F\left(x_t,y_t\right)dW_t^{(1)}\,,\\ &dy_t=g\left(x_t,y_t\right)dt+\sigma G\left(x_t,y_t\right)dW_t^{(2)}\,. \end{align} \]     La variable \(y\) est dite lente tandis que la variable \(x\) est dite rapide. Une question qui se pose ici est de savoir le temps que le système met à s'éloigner de la solution adiabatique, \[ \begin{align} &dx_t^0=\frac{1}{\varepsilon^2}f\left(x_t^0,y_t^0\right)dt\,,\\ &dy_t^0=g\left(x_t^0,y_t^0\right)dt\,. \end{align} \]     La théorie de Freidlin-Wentzell ne peut être appliquée directement puisque ces diffusions ne sont pas homogènes.

    Citons quatre exemples dans lesquels l'on peut retrouver ces systèmes :

  1. 1. Un pendule dans un milieu très dense doit faire face à une forte friction. Une perturbation brownienne de l'équation de Newton peut être réécrite sous la forme d'un système lent-rapide.
  2. 2. L'oscillateur de Van der Pol.
  3. 3. La conduction neuronale.
  4. 4. Le modèle de Stommel pour le gulf stream.

    On peut également retrouver de tels systèmes lorsque l'on s'intéresse à la résonance stochastique.

(Retourner au sommaire)

Équations aux derivées partielles stochastiques

    En novembre 2010, j'ai commencé à aborder les équations aux dérivées partielles stochastiques. Il s'agit d'une équation de type Itô dans un espace de Banach : \[du\left(t,\omega\right)=A\left(u\left(t,\omega\right),t,\omega\right)dt+B\left(u\left(t,\omega\right),t,\omega\right)dW_t\] où \(A\left({\bf .},t,\omega\right)\) et \(B\left({\bf .},t,\omega\right)\) sont deux familles d'opérateurs dans un espace de Banach et \(\left(W_t\right)_{t\geq0}\) est un processus de Wiener éventuellement cylindrique.

Citons trois exemples d'applications de ce domaine :

  1. 1. Problème de filtrations.
  2. 2. Équations de la génétique de population avec variations en fonction de la géographie.
  3. 3. Limite hydrodynamique de certains modèles de polymère.

    Notons que le dernier domaine peut s'aborder par une approche de type "système lent-rapide" lorsque l'on ne prend pas la limite hydrodynamique.

(Retourner au sommaire)