La funzione Onsager–Machlup è una funzione che riassume la dinamica di un processo stocastico continuo . Viene utilizzato per definire una funzione di densità di probabilità per un processo stocastico ed è simile alla Lagrangiana di un sistema dinamico . Prende il nome da Lars Onsager e Stefan Machlup che furono i primi a considerare tali densità di probabilità.[ 1]
La dinamica di un processo stocastico continuo X dal tempo t = 0 a t = T in una dimensione, che soddisfa un'equazione differenziale stocastica
d
X
t
=
b
(
X
t
)
d
t
+
σ
(
X
t
)
d
W
t
{\displaystyle dX_{t}=b(X_{t})\,dt+\sigma (X_{t})\,dW_{t}}
dove W è un processo di Wiener , può essere descritto approssimativamente dalla funzione di densità di probabilità del suo valore
x
i
{\displaystyle x_{i}}
in un numero finito di punti nel tempo
t
i
{\displaystyle t_{i}}
:
p
(
x
1
,
…
,
x
n
)
=
(
∏
i
=
1
n
−
1
1
2
π
σ
(
x
i
)
2
Δ
t
i
)
exp
(
−
∑
i
=
1
n
−
1
L
(
x
i
,
x
i
+
1
−
x
i
Δ
t
i
)
Δ
t
i
)
{\displaystyle p(x_{1},\ldots ,x_{n})=\left(\prod _{i=1}^{n-1}{\frac {1}{\sqrt {2\pi \sigma (x_{i})^{2}\Delta t_{i}}}}\right)\exp \left(-\sum _{i=1}^{n-1}L\left(x_{i},{\frac {x_{i+1}-x_{i}}{\Delta t_{i}}}\right)\,\Delta t_{i}\right)}
dove
L
(
x
,
v
)
=
1
2
(
v
−
b
(
x
)
σ
(
x
)
)
2
{\displaystyle L(x,v)={\frac {1}{2}}\left({\frac {v-b(x)}{\sigma (x)}}\right)^{2}}
e
Δ
t
i
=
t
i
+
1
−
t
i
>
0
{\displaystyle \Delta t_{i}=t_{i+1}-t_{i}>0}
,
t
1
=
0
{\displaystyle t_{1}=0}
e
t
n
=
T
{\displaystyle t_{n}=T}
.
Un'approssimazione simile è possibile per processi in dimensioni superiori.
L'approssimazione è più accurata per
Δ
t
i
{\displaystyle \Delta t_{i}}
molto piccoli, ma nel limite
Δ
t
i
→
0
{\displaystyle \Delta t_{i}\rightarrow 0}
la funzione di densità di probabilità diventa mal definita, uno dei motivi è che il prodotto dei termini
1
2
π
σ
(
x
i
)
2
Δ
t
i
{\displaystyle {\frac {1}{\sqrt {2\pi \sigma (x_{i})^{2}\Delta t_{i}}}}}
diverge all'infinito .
Nonostante questo, per definire una densità per il processo stocastico continuo X, si considerano comunque i rapporti di probabilità di X che giaciono entro una piccola distanza ε dalle curve lisce
φ
1
{\displaystyle \varphi _{1}}
e
φ
2
{\displaystyle \varphi _{2}}
:[ 2]
P
(
|
X
t
−
φ
1
(
t
)
|
≤
ε
for every
t
∈
[
0
,
T
]
)
P
(
|
X
t
−
φ
2
(
t
)
|
≤
ε
for every
t
∈
[
0
,
T
]
)
→
exp
(
−
∫
0
T
L
(
φ
1
(
t
)
,
φ
˙
1
(
t
)
)
d
t
+
∫
0
T
L
(
φ
2
(
t
)
,
φ
˙
2
(
t
)
)
d
t
)
{\displaystyle {\frac {P\left(\left|X_{t}-\varphi _{1}(t)\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right)}{P\left(\left|X_{t}-\varphi _{2}(t)\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right)}}\to \exp \left(-\int _{0}^{T}L\left(\varphi _{1}(t),{\dot {\varphi }}_{1}(t)\right)\,dt+\int _{0}^{T}L\left(\varphi _{2}(t),{\dot {\varphi }}_{2}(t)\right)\,dt\right)}
con ε → 0, dove L è la funzione di Onsager-Machlup .
Consideriamo una varietà Riemanniana con d-dimensioni
M
{\displaystyle M}
e un processo di diffusione
X
=
{
X
t
:
0
≤
t
≤
T
}
{\displaystyle X=\{X_{t}:0\leq t\leq T\}}
su
M
{\displaystyle M}
con generatore infinitesimale
1
/
2
Δ
M
+
b
{\displaystyle 1/2\Delta _{M}+b}
dove
Δ
M
{\displaystyle \Delta _{M}}
è l'operatore Laplace-Beltrami e
b
{\displaystyle b}
è un campo vettoriale .
Per ogni coppia di curve lisce qualsiasi
φ
1
,
φ
2
:
[
0
,
T
]
→
M
{\displaystyle \varphi _{1},\varphi _{2}:[0,T]\rightarrow M}
vale:
lim
ε
↓
0
P
(
ρ
(
X
t
,
φ
1
(
t
)
)
≤
ε
for every
t
∈
[
0
,
T
]
)
P
(
ρ
(
X
t
,
φ
2
(
t
)
)
≤
ε
for every
t
∈
[
0
,
T
]
)
=
exp
(
−
∫
0
T
L
(
φ
1
(
t
)
,
φ
˙
1
(
t
)
)
d
t
+
∫
0
T
L
(
φ
2
(
t
)
,
φ
˙
2
(
t
)
)
d
t
)
{\displaystyle \lim _{\varepsilon \downarrow 0}{\frac {P\left(\rho (X_{t},\varphi _{1}(t))\leq \varepsilon {\text{ for every }}t\in [0,T]\right)}{P\left(\rho (X_{t},\varphi _{2}(t))\leq \varepsilon {\text{ for every }}t\in [0,T]\right)}}=\exp \left(-\int _{0}^{T}L\left(\varphi _{1}(t),{\dot {\varphi }}_{1}(t)\right)\,dt+\int _{0}^{T}L\left(\varphi _{2}(t),{\dot {\varphi }}_{2}(t)\right)\,dt\right)}
dove
ρ
{\displaystyle \rho }
è la distanza Riemanniana ,
φ
˙
1
,
φ
˙
2
{\displaystyle \scriptstyle {\dot {\varphi }}_{1},{\dot {\varphi }}_{2}}
denotano le derivate prime di
φ
1
{\displaystyle \varphi _{1}}
,
φ
2
{\displaystyle \varphi _{2}}
, e
L
{\displaystyle L}
è chiamata funzione di Onsager–Machlup .
La funzione Onsager–Machlup è data da:
L
(
x
,
v
)
=
1
2
‖
v
−
b
(
x
)
‖
x
2
+
1
2
div
b
(
x
)
−
1
12
R
(
x
)
{\displaystyle L(x,v)={\tfrac {1}{2}}\|v-b(x)\|_{x}^{2}+{\tfrac {1}{2}}\operatorname {div} \,b(x)-{\tfrac {1}{12}}R(x)}
dove
‖
⋅
‖
x
{\displaystyle \lVert \cdot \rVert _{x}}
è la norma Riemanniana nello spazio tangente
T
x
(
M
)
{\displaystyle T_{x}(M)}
in x,
d
i
v
b
(
x
)
{\displaystyle div\ b(x)}
è la divergenza di
b
{\displaystyle b}
in x, e
R
(
x
)
{\displaystyle R(x)}
è la curvatura scalare in x.[ 3] [ 4] [ 5]
Gli esempi seguenti forniscono espressioni esplicite per la funzione Onsager-Machlup di processi stocastici continui.
Processo di Wiener sulla retta reale
modifica
La funzione Onsager-Machlup di un processo di Wiener sulla retta reale R è data da:
L
(
x
,
v
)
=
1
2
|
v
|
2
{\displaystyle L(x,v)={\tfrac {1}{2}}|v|^{2}}
[ 6]
Dimostrazione:
Sia
X
=
{
X
t
:
0
≤
t
≤
T
}
{\displaystyle X=\{X_{t}:0\leq t\leq T\}}
un processo di Wiener su R e sia φ : [0, T ] → R una curva differenziabile due volte tale che
φ
(
0
)
=
X
0
{\displaystyle \varphi (0)=X_{0}}
.
Definire un altro processo
X
φ
=
{
X
t
φ
:
0
≤
t
≤
T
}
{\displaystyle X^{\varphi }=\{X_{t}^{\varphi }:0\leq t\leq T\}}
per
X
t
φ
=
X
t
−
φ
(
t
)
{\displaystyle X_{t}^{\varphi }=X_{t}-\varphi (t)}
e una misura
P
φ
{\displaystyle P^{\varphi }}
per
P
φ
=
exp
(
∫
0
T
φ
˙
(
t
)
d
X
t
φ
+
∫
0
T
1
2
|
φ
˙
(
t
)
|
2
d
t
)
d
P
.
{\displaystyle P^{\varphi }=\exp \left(\int _{0}^{T}{\dot {\varphi }}(t)\,dX_{t}^{\varphi }+\int _{0}^{T}{\tfrac {1}{2}}\left|{\dot {\varphi }}(t)\right|^{2}\,dt\right)\,dP.}
Per ogni ε > 0, la probabilità che
|
X
t
−
φ
(
t
)
|
≤
ϵ
{\displaystyle \left\vert X_{t}-\varphi (t)\right\vert \leq \epsilon }
per ogni t ∈ [0, T] soddisfi
P
(
|
X
t
−
φ
(
t
)
|
≤
ε
for every
t
∈
[
0
,
T
]
)
=
P
(
|
X
t
φ
|
≤
ε
for every
t
∈
[
0
,
T
]
)
=
∫
{
|
X
t
φ
|
≤
ε
for every
t
∈
[
0
,
T
]
}
exp
(
−
∫
0
T
φ
˙
(
t
)
d
X
t
φ
−
∫
0
T
1
2
|
φ
˙
(
t
)
|
2
d
t
)
d
P
φ
.
{\displaystyle {\begin{aligned}P\left(\left|X_{t}-\varphi (t)\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right)&=P\left(\left|X_{t}^{\varphi }\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right)\\&=\int _{\left\{\left|X_{t}^{\varphi }\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right\}}\exp \left(-\int _{0}^{T}{\dot {\varphi }}(t)\,dX_{t}^{\varphi }-\int _{0}^{T}{\tfrac {1}{2}}|{\dot {\varphi }}(t)|^{2}\,dt\right)\,dP^{\varphi }.\end{aligned}}}
Per il teorema di Girsanov , la distribuzione di Xφ sotto Pφ è uguale alla distribuzione di X sotto P, quindi quest'ultima può essere sostituita dalla prima:
P
(
|
X
t
−
φ
(
t
)
|
≤
ε
for every
t
∈
[
0
,
T
]
)
=
∫
{
|
X
t
φ
|
≤
ε
for every
t
∈
[
0
,
T
]
}
exp
(
−
∫
0
T
φ
˙
(
t
)
d
X
t
−
∫
0
T
1
2
|
φ
˙
(
t
)
|
2
d
t
)
d
P
.
{\displaystyle P(|X_{t}-\varphi (t)|\leq \varepsilon {\text{ for every }}t\in [0,T])=\int _{\left\{\left|X_{t}^{\varphi }\right|\leq \varepsilon {\text{ for every }}t\in [0,T]\right\}}\exp \left(-\int _{0}^{T}{\dot {\varphi }}(t)\,dX_{t}-\int _{0}^{T}{\tfrac {1}{2}}|{\dot {\varphi }}(t)|^{2}\,dt\right)\,dP.}
Per il lemma di Itō vale la seguente equaglianza:
∫
0
T
φ
˙
(
t
)
d
X
t
=
φ
˙
(
T
)
X
T
−
∫
0
T
φ
¨
(
t
)
X
t
d
t
,
{\displaystyle \int _{0}^{T}{\dot {\varphi }}(t)\,dX_{t}={\dot {\varphi }}(T)X_{T}-\int _{0}^{T}{\ddot {\varphi }}(t)X_{t}\,dt,}
Dove
φ
¨
{\displaystyle \scriptstyle {\ddot {\varphi }}}
è la derivata seconda di φ, e quindi questo termine è di ordine ε nell'evento in cui
|
X
t
|
≤
ϵ
{\displaystyle \vert X_{t}\vert \leq \epsilon }
per ogni t ∈ [0, T ] e scomparirà nel limite ε → 0, quindi
lim
ε
↓
0
P
(
|
X
t
−
φ
(
t
)
|
≤
ε
for every
t
∈
[
0
,
T
]
)
P
(
|
X
t
|
≤
ε
for every
t
∈
[
0
,
T
]
)
=
exp
(
−
∫
0
T
1
2
|
φ
˙
(
t
)
|
2
d
t
)
.
{\displaystyle \lim _{\varepsilon \downarrow 0}{\frac {P(|X_{t}-\varphi (t)|\leq \varepsilon {\text{ for every }}t\in [0,T])}{P(|X_{t}|\leq \varepsilon {\text{ for every }}t\in [0,T])}}=\exp \left(-\int _{0}^{T}{\tfrac {1}{2}}|{\dot {\varphi }}(t)|^{2}\,dt\right).}
Processi di diffusione con coefficiente di diffusione costante su spazio euclideo
modifica
La funzione di Onsager-Machlup nel caso unidimensionale con coefficiente di diffusione costante σ è data da:[ 7]
L
(
x
,
v
)
=
1
2
|
v
−
b
(
x
)
σ
|
2
+
1
2
d
b
d
x
(
x
)
.
{\displaystyle L(x,v)={\frac {1}{2}}\left|{\frac {v-b(x)}{\sigma }}\right|^{2}+{\frac {1}{2}}{\frac {db}{dx}}(x).}
Nel caso con d-dimensioni, con σ uguale alla matrice unitaria , la funzione è data da
L
(
x
,
v
)
=
1
2
‖
v
−
b
(
x
)
‖
2
+
1
2
(
div
b
)
(
x
)
{\displaystyle L(x,v)={\frac {1}{2}}\|v-b(x)\|^{2}+{\frac {1}{2}}(\operatorname {div} \,b)(x)}
, dove || ⋅ || è la norma euclidea e
(
div
b
)
(
x
)
=
∑
i
=
1
d
∂
∂
x
i
b
i
(
x
)
.
{\displaystyle (\operatorname {div} \,b)(x)=\sum _{i=1}^{d}{\frac {\partial }{\partial x_{i}}}b_{i}(x).}
[ 6]
Le generalizzazioni sono state ottenute indebolendo la condizione di differenziabilità sulla curva φ.[ 8] Invece di prendere la distanza massima tra il processo stocastico e la curva in un intervallo di tempo, sono state considerate altre condizioni come distanze basate su norme completamente convesse e norme di tipo Hölder, Besov e Sobolev .[ 9] [ 10]
La funzione Onsager-Machlup può essere utilizzata per scopi di riponderazione e campionamento delle traiettorie,[ 11] nonché per determinare la traiettoria più probabile di un processo di diffusione.[ 11] [ 12]
^ Onsager, L. and Machlup, S. (1953)
^ Stratonovich, R. (1971)
^ Takahashi, Y. and Watanabe, S. (1980)
^ Fujita, T. and Kotani, S. (1982)
^ Wittich, Olaf
^ a b Ikeda, N. and Watanabe, S. (1980), Chapter VI, Section 9
^ Dürr, D. and Bach, A. (1978)
^ Zeitouni, O. (1989)
^ Shepp, L. and Zeitouni, O. (1993)
^ Capitaine, M. (1995)
^ a b Adib, A.B. (2008).
^ Dürr, D. and Bach, A. (1978).