Порождающий процесс Винера — различия между версиями

Материал из synset
Перейти к: навигация, поиск
(Новая страница: «{| width="100%" | width="40%"|Автокорреляция и спектр << ! width="20%"|Оглавление |…»)
 
 
(не показано 8 промежуточных версий этого же участника)
Строка 5: Строка 5:
 
|}
 
|}
 
----
 
----
 +
 +
Стохастическое дифференциальное уравнение содержит в качестве шума <math>\textstyle \delta W</math> изменения винеровского процесса <math>\textstyle W_t</math>. В результате: <blockquote> каждая выборочная траектория винеровского блуждания <math>\textstyle W_t</math> полностью определяет выборочную траекторию произвольного стохастического уравнения с шумом <math>\textstyle \delta W</math>. </blockquote> Даже в тех случаях, когда мы не можем в явном виде записать решение уравнения в виде простой функции <math>\textstyle x_t=f(t, W_t)</math>, предполагается её существование. Если у нас есть несколько случайных процессов, уравнения которых содержат ''один и тот же'' стохастический шум <math>\textstyle \delta W</math>, то они должны быть между собой ''скоррелированы''. Рассмотрим пример:
 +
 +
{| width="100%"
 +
| width="90%" align="center"|<math> \left\{ \begin{array}{l} dx = f(t)\,\delta W \\ dy = g(t)\,\delta W. \end{array} \right. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.42)'''</div>
 +
|}
 +
 +
Решение каждого уравнения может быть записано при помощи гауссовой величины [[Точные решения уравнения Ито|(2.18)]]. Однако, несмотря на одинаковую винеровскую переменную <math>\textstyle \delta W</math>, в решениях должна стоять ''различная'' <math>\textstyle \varepsilon</math>:
 +
 +
<center>
 +
<math>
 +
\begin{array}{lcl} x &=&x_0 + \sum f_{i-1} \,\varepsilon_{i} \, \sqrt{\Delta t} = x_0+ F(t) \cdot \varepsilon\\ y &=&y_0 + \sum g_{j-1} \,\varepsilon_{j} \, \sqrt{\Delta t} = y_0+ G(t)\cdot \eta, \end{array} где дисперсии равны:
 +
</math>
 +
</center>
 +
 +
:<center><math>F^2(t) = \int\limits^t_{t_0} f^2(\tau)\,d\tau,\;\;\;\;\;\;\;\;G^2(t) = \int\limits^t_{t_0} g^2(\tau)\,d\tau</math></center>
 +
 +
На каждой итерации, в обоих суммах стоят одинаковые случайные числа <math>\textstyle \varepsilon_k</math>. Однако так как они умножаются на различные коэффициенты <math>\textstyle f_i</math> и <math>\textstyle g_i</math>, результирующие гауссовы числа будут ''скоррелированы'':
 +
 +
:<center><math>F(t)\, G(t)\cdot \left\langle \varepsilon \eta\right\rangle = \sum_{i,j=1} f_{i-1} g_{j-1} \left\langle \varepsilon_{i}\varepsilon_{j}\right\rangle \Delta t = \sum_{i=1} f_{i-1} g_{i-1}\Delta t = \int\limits^t_{t_0} f(\tau)g(\tau)\,d\tau,</math></center>
 +
 +
так как <math>\textstyle \left\langle \varepsilon_{i}\varepsilon_{j}\right\rangle </math> отлично от нуля только при <math>\textstyle i=j</math>. Таким образом:
 +
 +
{| width="100%"
 +
| width="90%" align="center"|<math> \left\langle \varepsilon \eta\right\rangle = \rho(t) = \frac{1}{F(t)\, G(t)} \int\limits^t_{t_0} f(\tau)g(\tau)\,d\tau \neq 1. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.43)'''</div>
 +
|}
 +
 +
Заметим, что в общем случае <math>\textstyle \left\langle \varepsilon \eta\right\rangle </math> зависит от времени.
 +
 +
<math>\textstyle \bullet</math> Рассмотрим конкретное применение этих формул на примере процесса Орнштейна-Уленбека:
 +
 +
:<center><math>dx = -\beta\cdot(x-\alpha)\,dt + \sigma\,\delta W.</math></center>
 +
 +
Перейдём при помощи леммы Ито к процессу <math>\textstyle y(t)=F(t,x)=e^{\beta t}\, (x-\alpha)</math>:
 +
 +
:<center><math>dy = \sigma e^{\beta t}\,\delta W\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;y(t)=y_0+\frac{\sigma}{\sqrt{2\beta}}\sqrt{e^{2\beta t}-1} \cdot \eta,</math></center>
 +
 +
где <math>\textstyle \eta\sim N(0,1)</math>, а <math>\textstyle y_0=x_0-\alpha</math>. Поэтому решение для <math>\textstyle x</math> имеет вид (<math>\textstyle \beta>0</math>):
 +
 +
:<center><math>x(t) = \alpha+(x_0-\alpha)e^{-\beta t} +\frac{\sigma}{\sqrt{2\beta}}\sqrt{1-e^{-2\beta t}}\cdot \eta,</math></center>
 +
 +
Если мы интересуемся свойствами этого процесса как такового, данного решения вполне достаточно. Однако, если мы хотим прояснить его связь с ''порождающим'' винеровским процессом <math>\textstyle W_t</math>, необходимо записать:
 +
 +
:<center><math>W_t=\varepsilon \sqrt{t},\;\;\;\;\;\;\;\;\;\;\;\;\left\langle \varepsilon\,\eta\right\rangle =\rho=\sqrt{\frac{2}{\beta t}\,\frac{1-e^{-\beta t}}{1+e^{-\beta t}}},</math></center>
 +
 +
где мы воспользовались (2.43) с <math>\textstyle f(t)=1</math> и <math>\textstyle g(t)=\sigma\,e^{\beta t}</math>. Так как <math>\textstyle \varepsilon</math> и <math>\textstyle \eta</math> &mdash; скоррелированные гауссовы числа, для вычисления моментов произвольных порядков удобно перейти к паре независимых гауссовых величин:
 +
 +
:<center><math>\varepsilon = \varepsilon_1,\;\;\;\;\;\;\eta = \rho\,\varepsilon_1+\sqrt{1-\rho^2}\,\varepsilon_2.</math></center>
 +
 +
В результате:
 +
 +
:<center><math>\left\langle \varepsilon^2\right\rangle =\left\langle \eta^2\right\rangle =1,\;\;\;\;\left\langle \varepsilon\eta\right\rangle =\rho,\;\;\;\;\;\;\left\langle \varepsilon^2\eta^2\right\rangle =1+2\rho^2,</math></center>
 +
 +
и т.д. Теперь мы можем вычислить любые статистики, в которых участвуют и процесс Орнштейна-Уленбека <math>\textstyle x</math>, и порождающий его винеровский процесс <math>\textstyle x</math>:
 +
 +
:<center><math>\left\langle W_t \cdot x_t \right\rangle =\frac{\sigma\sqrt{t}}{\sqrt{2\beta}}\,\sqrt{1-e^{-2\beta t}}\cdot \left\langle \varepsilon\eta\right\rangle =\frac{\sigma}{\beta}\left(1-e^{-\beta \,t}\right).</math></center>
 +
 +
Если нас интересуют предсказательные возможности порождающего процесса, необходимо записать решение со сдвигом:
 +
 +
:<center><math>x_{t+\tau} = \alpha+(x_t-\alpha)e^{-\beta \tau} +\frac{\sigma}{\sqrt{2\beta}}\sqrt{1-e^{-2\beta \tau}}\cdot \eta',</math></center>
 +
 +
и вычислить:
 +
 +
:<center><math>\left\langle W_t \cdot x_{t+\tau}\right\rangle = \left\langle W_t \cdot x_{t}\right\rangle \,e^{-\beta \tau} = \frac{\sigma}{\beta}\,(1-e^{-\beta\tau}),</math></center>
 +
 +
так как <math>\textstyle \eta'</math> на интервале <math>\textstyle [t...t+\tau]</math> не зависит от винеровского процесса в момент <math>\textstyle t</math>.
 +
 +
<math>\textstyle \bullet</math> Рассмотрим ещё одну задачу для двух процессов с одинаковым шумом <math>\textstyle \delta W</math>:
 +
 +
:<center><math>\left\{ \begin{array}{l} dx = \delta W\\ dy = f(x,t)\,\delta W. \\ \end{array} \right.</math></center>
 +
 +
Если <math>\textstyle x_0=x(0)=0</math>, то <math>\textstyle x(t)=W_t</math> &mdash; это винеровский процесс, предоставляющий уравнению для <math>\textstyle y</math> не только изменения <math>\textstyle \delta W</math>, но и накопленное значение <math>\textstyle W_t</math>, от которого зависит ''амплитуда'' шума.
 +
 +
Будем, как обычно, использовать итерационный метод:
 +
 +
<center>
 +
<math>
 +
\begin{array}{lcl}
 +
x_i &=&x_0 + \sum^{i}_{j=1} \varepsilon_j \, \sqrt{\Delta t}\\ y_n &=&y_0 + \sum^{n-1}_{i=0} f(x_i, t_i) \,\varepsilon_{i+1} \, \sqrt{\Delta t}.
 +
\end{array}
 +
</math>
 +
</center>
 +
 +
В решении для <math>\textstyle y_n</math> величины <math>\textstyle x_i</math> содержат сумму гауссовых переменных по <math>\textstyle \varepsilon_i</math> включительно. Они не зависят от <math>\textstyle \varepsilon_{i+1}</math>, поэтому <math>\textstyle \left\langle y_n\right\rangle =y_0</math>. Аналогично вычисляется дисперсия второго процесса:
 +
 +
:<center><math>\left\langle (y_n-y_0)^2\right\rangle = \sum^{n-1}_{i,j=0} \left\langle f(x_i, t_i)f(x_j, t_j) \,\varepsilon_{i+1}\varepsilon_{j+1}\right\rangle \, \Delta t.</math></center>
 +
 +
Эту сумму необходимо разбить на три части, когда индекс <math>\textstyle i</math> меньше <math>\textstyle j</math>, больше, и равен:
 +
 +
:<center><math>\sum_{i,j} = \sum_{i<j} + \sum_{i>j} + \sum_{i=j}.</math></center>
 +
 +
Первая и вторая суммы равны нулю, так как они содержат члены типа <math>\textstyle \left\langle f(x_1,t_1)f(x_2,t_2)\varepsilon_2\varepsilon_3\right\rangle </math>. Величина <math>\textstyle \varepsilon_3</math> не зависит от всех остальных случайных чисел, среднее разбивается на произведение средних и оказывается равным нулю <math>\textstyle \left\langle \varepsilon_3\right\rangle =0</math>. В результате ненулевое значение имеет последняя сумма со слагаемыми типа <math>\textstyle \left\langle f^2(x_1,t_1)\varepsilon^2_2\right\rangle =\left\langle f^2(x_1,t_1)\right\rangle \left\langle \varepsilon^2_2\right\rangle </math>. Поэтому для дисперсии имеем следующее выражение:
 +
 +
{| width="100%"
 +
| width="90%" align="center"|<math> \sigma^2(t) = \left\langle (y(t)-y_0)^2\right\rangle = \int\limits^t_{t_0}\left\langle f^2(x_0+\varepsilon\sqrt{\tau}, \tau)\right\rangle d\tau, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.44)'''</div>
 +
|}
 +
 +
где в явном виде подставлено решение для <math>\textstyle x</math>. Таким образом, усредняя с гауссовой плотностью вероятности подынтегральную функцию и вычисляя интеграл от обычной функции времени, мы получаем значение дисперсии случайного процесса. Подчеркнём, что сначала происходит усреднение, и только после этого проводится интегрирование.
 +
 +
<math>\textstyle \bullet</math> Системы уравнений с одинаковым шумом позволят прояснить ещё одну важную особенность стохастической математики. Рассмотрим следующий пример с начальными условиями <math>\textstyle x_0=x(0)</math> и <math>\textstyle y_0=y(0)</math>:
 +
 +
{| width="100%"
 +
| width="90%" align="center"|<math> \left\{ \begin{array}{l} dx = \;\;\,\delta W \\ dy = x\,\delta W, \end{array} \right. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.45)'''</div>
 +
|}
 +
 +
Может появиться искушение разделить одно уравнение на второе и проинтегрировать обыкновенное дифференциальное уравнение:
 +
 +
{| width="100%"
 +
| width="90%" align="center"|<math> dy = x\,dx\;\;\;\;\;\;\;\;\;\;\;\nRightarrow\;\;\;\;\;\;\;\;\;\; y - y_0 = \frac{x^2-x^2_0}{2}. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.46)'''</div>
 +
|}
 +
 +
Если так можно, то решение должно оставаться на детерминированной кривой <math>\textstyle y=y(x)</math>. Однако на самом деле ''это неверно''! Дело в том, что, хотя стохастический член <math>\textstyle \delta W</math> сократился, дифференциалы <math>\textstyle dx</math>, <math>\textstyle dy</math> по-прежнему являются изменением ''случайных'' функций, для которых неприменимы обычные правила интегрирования. В частности, <math>\textstyle x\,dx\neq d(x^2)/2</math> (<math>\textstyle \lessdot</math> C). Для подобных операций служит лемма Ито.
 +
 +
Решение системы (2.45) на самом деле имеет вид:
 +
 +
:<center><math>\left\{ \begin{array}{ll} x &= x_0 + W\\ y &= y_0 + x_0 \,W + \frac{1}{2}\,(W^2-t).\\ \end{array} \right.</math></center>
 +
 +
Действительно, рассматривая <math>\textstyle y=F(t,W)</math>, как функцию времени и <math>\textstyle W</math>, мы можем воспользоваться леммой Ито. При этом <math>\textstyle dW=\delta W</math>, поэтому снос равен нулю <math>\textstyle a=0</math>, а волатильность &mdash; единице <math>\textstyle b=1</math>:
 +
 +
:<center><math>dy = \left( \frac{\partial y}{\partial t} + \frac{1}{2}\, \frac{\partial^2 y}{\partial W^2}\right)\,dt + \frac{\partial y}{\partial W}\, \delta W = (x_0+W)\,\delta W = x\, \delta W,</math></center>
 +
 +
что совпадает со вторым уравнением системы (2.45). В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается решить (2.45) при помощи итераций и проверить (<math>\textstyle \lessdot</math> H) выполнимость (2.44).
 +
 +
Таким образом, необходимо помнить, что дифференциалы типа <math>\textstyle dx</math> не являются обычными "малыми" приращения функции <math>\textstyle x(t)</math>. Это ''случайные величины''. Нельзя под дифференциал "как обычно" "затаскивать" функции: <math>\textstyle 2xdx\neq d(x^2)</math>. Следует также помнить, что <blockquote>''дифференциальные стохастические уравнения &mdash; это лишь символическая запись непрерывного предела итерационной схемы.'' </blockquote> Ни когда не будет лишним проверить полученный результат при помощи численного моделирования на компьютере. То, что при этом сложно сделать предельный переход <math>\textstyle \Delta t\to 0</math>, не должно останавливать. В конечном счёте, большинство реальных случайных процессов в Природе на определённом временном масштабе являются дискретными!
 +
  
 
----
 
----

Текущая версия на 19:13, 9 марта 2010

Автокорреляция и спектр << Оглавление >> Динамическое уравнение для средних

Стохастическое дифференциальное уравнение содержит в качестве шума изменения винеровского процесса . В результате:

каждая выборочная траектория винеровского блуждания полностью определяет выборочную траекторию произвольного стохастического уравнения с шумом .

Даже в тех случаях, когда мы не можем в явном виде записать решение уравнения в виде простой функции , предполагается её существование. Если у нас есть несколько случайных процессов, уравнения которых содержат один и тот же стохастический шум , то они должны быть между собой скоррелированы. Рассмотрим пример:

(2.42)

Решение каждого уравнения может быть записано при помощи гауссовой величины (2.18). Однако, несмотря на одинаковую винеровскую переменную , в решениях должна стоять различная :

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \begin{array}{lcl} x &=&x_0 + \sum f_{i-1} \,\varepsilon_{i} \, \sqrt{\Delta t} = x_0+ F(t) \cdot \varepsilon\\ y &=&y_0 + \sum g_{j-1} \,\varepsilon_{j} \, \sqrt{\Delta t} = y_0+ G(t)\cdot \eta, \end{array} где дисперсии равны: }

На каждой итерации, в обоих суммах стоят одинаковые случайные числа . Однако так как они умножаются на различные коэффициенты и , результирующие гауссовы числа будут скоррелированы:

так как отлично от нуля только при . Таким образом:

(2.43)

Заметим, что в общем случае зависит от времени.

Рассмотрим конкретное применение этих формул на примере процесса Орнштейна-Уленбека:

Перейдём при помощи леммы Ито к процессу :

где , а . Поэтому решение для имеет вид ():

Если мы интересуемся свойствами этого процесса как такового, данного решения вполне достаточно. Однако, если мы хотим прояснить его связь с порождающим винеровским процессом , необходимо записать:

где мы воспользовались (2.43) с и . Так как и — скоррелированные гауссовы числа, для вычисления моментов произвольных порядков удобно перейти к паре независимых гауссовых величин:

В результате:

и т.д. Теперь мы можем вычислить любые статистики, в которых участвуют и процесс Орнштейна-Уленбека , и порождающий его винеровский процесс :

Если нас интересуют предсказательные возможности порождающего процесса, необходимо записать решение со сдвигом:

и вычислить:

так как на интервале не зависит от винеровского процесса в момент .

Рассмотрим ещё одну задачу для двух процессов с одинаковым шумом :

Если , то — это винеровский процесс, предоставляющий уравнению для не только изменения , но и накопленное значение , от которого зависит амплитуда шума.

Будем, как обычно, использовать итерационный метод:

В решении для величины содержат сумму гауссовых переменных по включительно. Они не зависят от , поэтому . Аналогично вычисляется дисперсия второго процесса:

Эту сумму необходимо разбить на три части, когда индекс меньше , больше, и равен:

Первая и вторая суммы равны нулю, так как они содержат члены типа . Величина не зависит от всех остальных случайных чисел, среднее разбивается на произведение средних и оказывается равным нулю . В результате ненулевое значение имеет последняя сумма со слагаемыми типа . Поэтому для дисперсии имеем следующее выражение:

(2.44)

где в явном виде подставлено решение для . Таким образом, усредняя с гауссовой плотностью вероятности подынтегральную функцию и вычисляя интеграл от обычной функции времени, мы получаем значение дисперсии случайного процесса. Подчеркнём, что сначала происходит усреднение, и только после этого проводится интегрирование.

Системы уравнений с одинаковым шумом позволят прояснить ещё одну важную особенность стохастической математики. Рассмотрим следующий пример с начальными условиями и :

(2.45)

Может появиться искушение разделить одно уравнение на второе и проинтегрировать обыкновенное дифференциальное уравнение:

(2.46)

Если так можно, то решение должно оставаться на детерминированной кривой . Однако на самом деле это неверно! Дело в том, что, хотя стохастический член сократился, дифференциалы , по-прежнему являются изменением случайных функций, для которых неприменимы обычные правила интегрирования. В частности, ( C). Для подобных операций служит лемма Ито.

Решение системы (2.45) на самом деле имеет вид:

Действительно, рассматривая , как функцию времени и , мы можем воспользоваться леммой Ито. При этом , поэтому снос равен нулю , а волатильность — единице :

что совпадает со вторым уравнением системы (2.45). В качестве упражнения ( H) предлагается решить (2.45) при помощи итераций и проверить ( H) выполнимость (2.44).

Таким образом, необходимо помнить, что дифференциалы типа не являются обычными "малыми" приращения функции . Это случайные величины. Нельзя под дифференциал "как обычно" "затаскивать" функции: . Следует также помнить, что

дифференциальные стохастические уравнения — это лишь символическая запись непрерывного предела итерационной схемы.

Ни когда не будет лишним проверить полученный результат при помощи численного моделирования на компьютере. То, что при этом сложно сделать предельный переход , не должно останавливать. В конечном счёте, большинство реальных случайных процессов в Природе на определённом временном масштабе являются дискретными!



Автокорреляция и спектр << Оглавление >> Динамическое уравнение для средних

Стохастический мир - простое введение в стохастические дифференциальные уравнения