Представление стохастических решений — различия между версиями

Материал из synset
Перейти к: навигация, поиск
м (Защищена страница «Представление стохастических решений» ([edit=sysop] (бессрочно) [move=sysop] (бессрочно)))
 
(не показаны 2 промежуточные версии этого же участника)
Строка 5: Строка 5:
 
|}
 
|}
 
----
 
----
 +
 
<math>\textstyle \bullet</math> Мы записываем решения стохастических уравнений с начальным условием <math>\textstyle x_0=x(t_0)</math> при помощи одной или нескольких случайных величин <math>\textstyle \varepsilon</math> и гладкой функции времени: <math>\textstyle x(t)=f(x_0,\,t_0,\;t,\,\varepsilon)</math>. Так как свойства <math>\textstyle \varepsilon</math> обычно хорошо известны, такое представление позволяет легко находить разнообразные средние и марковскую плотность условной вероятности <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math>.
 
<math>\textstyle \bullet</math> Мы записываем решения стохастических уравнений с начальным условием <math>\textstyle x_0=x(t_0)</math> при помощи одной или нескольких случайных величин <math>\textstyle \varepsilon</math> и гладкой функции времени: <math>\textstyle x(t)=f(x_0,\,t_0,\;t,\,\varepsilon)</math>. Так как свойства <math>\textstyle \varepsilon</math> обычно хорошо известны, такое представление позволяет легко находить разнообразные средние и марковскую плотность условной вероятности <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math>.
  
 
Сама по себе функция <math>\textstyle f</math> не позволяет нарисовать одиночную траекторию. Если мы сгенерим некоторое конкретное число <math>\textstyle \tilde{\varepsilon}</math>, то <math>\textstyle x(t)</math> не будет графиком случайного процесса. Это обычная гладкая функция. Например, для винеровского процесса без сноса:
 
Сама по себе функция <math>\textstyle f</math> не позволяет нарисовать одиночную траекторию. Если мы сгенерим некоторое конкретное число <math>\textstyle \tilde{\varepsilon}</math>, то <math>\textstyle x(t)</math> не будет графиком случайного процесса. Это обычная гладкая функция. Например, для винеровского процесса без сноса:
  
:<center><math> x(t) = x_0+\varepsilon\,\sqrt{t-t_0}. </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x(t) = x_0+\varepsilon\,\sqrt{t-t_0}. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.33)'''</div>
 +
|}
  
 
Никаких изломов, типичных для случайного процесса, тут, конечно, нет. Дело в том, что для получения свойств <math>\textstyle x(t)</math> в каждый момент времени необходимо генерить различные случайные числа <math>\textstyle \varepsilon</math>.
 
Никаких изломов, типичных для случайного процесса, тут, конечно, нет. Дело в том, что для получения свойств <math>\textstyle x(t)</math> в каждый момент времени необходимо генерить различные случайные числа <math>\textstyle \varepsilon</math>.
Строка 17: Строка 21:
 
:<center><math>\begin{array}{l} x_1 = f(x_0,\, t_0,\; t_1,\, \varepsilon_1)\\ x_2 = f(x_1,\, t_1,\; t_2,\, \varepsilon_2)\\ x_3 = f(x_2,\, t_2,\; t_3,\, \varepsilon_3),\;..., \end{array}</math></center>
 
:<center><math>\begin{array}{l} x_1 = f(x_0,\, t_0,\; t_1,\, \varepsilon_1)\\ x_2 = f(x_1,\, t_1,\; t_2,\, \varepsilon_2)\\ x_3 = f(x_2,\, t_2,\; t_3,\, \varepsilon_3),\;..., \end{array}</math></center>
  
<center>  
+
<center>[[File:path_from_f.png]]</center>
[[File:path_from_f.png]]
 
</center>  
 
  
 
где интервалы времени <math>\textstyle t_{i}-t_{i+1}</math> &mdash; ''произвольны''. Так как случайные переходы от одного момента времени <math>\textstyle (x_i,\,t_i)</math> к следующему <math>\textstyle (x_{i+1},\,t_{i+1})</math> не перекрываются, случайные числа <math>\textstyle \varepsilon_1</math>, <math>\textstyle \varepsilon_2</math>, <math>\textstyle \varepsilon_3</math>,.. являются статистически независимыми. Это позволяет вычислять средние, относящиеся к различным моментам времени, и строить выборочные ''траектории''. При этом возникают последовательности вложенных функций, например:
 
где интервалы времени <math>\textstyle t_{i}-t_{i+1}</math> &mdash; ''произвольны''. Так как случайные переходы от одного момента времени <math>\textstyle (x_i,\,t_i)</math> к следующему <math>\textstyle (x_{i+1},\,t_{i+1})</math> не перекрываются, случайные числа <math>\textstyle \varepsilon_1</math>, <math>\textstyle \varepsilon_2</math>, <math>\textstyle \varepsilon_3</math>,.. являются статистически независимыми. Это позволяет вычислять средние, относящиеся к различным моментам времени, и строить выборочные ''траектории''. При этом возникают последовательности вложенных функций, например:
Строка 33: Строка 35:
 
<math>\textstyle \bullet</math> Существуют и другие способы представления траектории случайного процесса. Рассмотрим для примера ''разложение Палея-Винера'' винеровского блуждания на интервале времени <math>\textstyle t=[0..T]</math>:
 
<math>\textstyle \bullet</math> Существуют и другие способы представления траектории случайного процесса. Рассмотрим для примера ''разложение Палея-Винера'' винеровского блуждания на интервале времени <math>\textstyle t=[0..T]</math>:
  
:<center><math> x(t) = x_0+\varepsilon_0 \, \frac{t}{\sqrt{T}} + \sqrt{2T}\, \sum^{\infty}_{k=1} \varepsilon_k\, \frac{\sin(\pi k\cdot t/T)}{\pi k}, </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x(t) = x_0+\varepsilon_0 \, \frac{t}{\sqrt{T}} + \sqrt{2T}\, \sum^{\infty}_{k=1} \varepsilon_k\, \frac{\sin(\pi k\cdot t/T)}{\pi k}, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.34)'''</div>
 +
|}
  
где <math>\textstyle \varepsilon_k\sim N(0,1)</math> &mdash; независимые нормально распределённые случайные величины. Это разложение имеет ''такие же статистические свойства'', как и существенно более простая запись (). Чтобы в этом убедиться, вычислим среднее квадрата <math>\textstyle \left\langle x^2\right\rangle </math> (простое среднее равно нулю <math>\textstyle \left\langle x\right\rangle =0</math>):
+
где <math>\textstyle \varepsilon_k\sim N(0,1)</math> &mdash; независимые нормально распределённые случайные величины. Это разложение имеет ''такие же статистические свойства'', как и существенно более простая запись (2.33). Чтобы в этом убедиться, вычислим среднее квадрата <math>\textstyle \left\langle x^2\right\rangle </math> (простое среднее равно нулю <math>\textstyle \left\langle x\right\rangle =0</math>):
  
:<center><math> \left\langle x^2\right\rangle \;=\; x^2_0+\frac{t^2}{T} + 2T\, \sum^{\infty}_{k=1} \frac{\sin^2(\pi k\cdot t/T)}{\pi^2 k^2} \;=\; x^2_0+t, </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> \left\langle x^2\right\rangle \;=\; x^2_0+\frac{t^2}{T} + 2T\, \sum^{\infty}_{k=1} \frac{\sin^2(\pi k\cdot t/T)}{\pi^2 k^2} \;=\; x^2_0+t, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.35)'''</div>
 +
|}
  
где мы воспользовались свойством независимости <math>\textstyle \left\langle \varepsilon_i\varepsilon_j\right\rangle =0</math>, если <math>\textstyle i\neq j</math> и <math>\textstyle \left\langle \varepsilon^2_i\right\rangle =1</math>. Равенство <math>\textstyle \left\langle x^2\right\rangle =x^2_0+t</math> проверяется при помощи фурье &mdash; разложения функции <math>\textstyle f(t)=t-t^2/T</math> на интервале <math>\textstyle t=[0..T]</math>.
+
где мы воспользовались свойством независимости <math>\textstyle \left\langle \varepsilon_i\varepsilon_j\right\rangle =0</math>, если <math>\textstyle i\neq j</math> и <math>\textstyle \left\langle \varepsilon^2_i\right\rangle =1</math>. Равенство <math>\textstyle \left\langle x^2\right\rangle =x^2_0+t</math> проверяется при помощи фурье &mdash; разложения функции <math>\textstyle f(t)=t-t^2/T</math> на интервале <math>\textstyle t=[0..T]</math> (<math>\textstyle \lessdot</math> H).
  
В результате получается такой же результат, как и для (). Плотности вероятности величин () и () совпадают, так как сумма гауссовых чисел <math>\textstyle \varepsilon_0</math>,<math>\textstyle \varepsilon_1</math>,... &mdash; это опять гауссово число, дисперсия которого, как мы показали, равна <math>\textstyle t</math>.
+
В результате получается такой же результат, как и для (2.33). Плотности вероятности величин (2.33) и (2.34) совпадают, так как сумма гауссовых чисел <math>\textstyle \varepsilon_0</math>,<math>\textstyle \varepsilon_1</math>,... &mdash; это опять гауссово число, дисперсия которого, как мы показали, равна <math>\textstyle t</math>.
  
 
Достоинством представления Палея-Винера является то, что с его помощью можно записывать ''непрерывную'' функцию одиночной траектории, на конечном интервале времени <math>\textstyle T</math>. Для этого, естественно, приходится обрезать суммирование на достаточно большом индексе <math>\textstyle k=N</math>. Затем генерятся независимые случайные числа <math>\textstyle \varepsilon_0</math>,...,<math>\textstyle \varepsilon_N</math>, и фурье &mdash; разложение даёт изломанную кривую. На рисунках ниже приведено последовательное увеличение числа слагаемых в сумме: <math>\textstyle N=10,20,100</math>. При этом случайные числа <math>\textstyle \varepsilon_0</math>, <math>\textstyle \varepsilon_1</math>,.. на каждом графике повторяются:  
 
Достоинством представления Палея-Винера является то, что с его помощью можно записывать ''непрерывную'' функцию одиночной траектории, на конечном интервале времени <math>\textstyle T</math>. Для этого, естественно, приходится обрезать суммирование на достаточно большом индексе <math>\textstyle k=N</math>. Затем генерятся независимые случайные числа <math>\textstyle \varepsilon_0</math>,...,<math>\textstyle \varepsilon_N</math>, и фурье &mdash; разложение даёт изломанную кривую. На рисунках ниже приведено последовательное увеличение числа слагаемых в сумме: <math>\textstyle N=10,20,100</math>. При этом случайные числа <math>\textstyle \varepsilon_0</math>, <math>\textstyle \varepsilon_1</math>,.. на каждом графике повторяются:  
  
<center>  
+
<center>
 
[[File:paley.png]]
 
[[File:paley.png]]
</center>  
+
</center>
  
 
Видно, что степень изломанности траектории увеличивается, стремясь в пределе <math>\textstyle N\to\infty</math> к недифференцируемой стохастической кривой.
 
Видно, что степень изломанности траектории увеличивается, стремясь в пределе <math>\textstyle N\to\infty</math> к недифференцируемой стохастической кривой.
Строка 53: Строка 61:
 
<math>\textstyle \bullet</math> Изучая стохастические дифференциальные уравнения, можно использовать различный "язык" и различные математические конструкции. Кратко перечислим основные подходы к представлению решений стохастических уравнений, их сильные и слабые стороны.
 
<math>\textstyle \bullet</math> Изучая стохастические дифференциальные уравнения, можно использовать различный "язык" и различные математические конструкции. Кратко перечислим основные подходы к представлению решений стохастических уравнений, их сильные и слабые стороны.
  
<math>\textstyle \triangleright</math> ''Плотность вероятности'' является базовым и наиболее общим языком описания случайных функций. Так как мы ограничились классом марковских процессов, знание вероятности перехода <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> между двумя точками позволяет записать вероятность всей траектории. В результате можно вычислять разнообразные средние, и т.п. Чтобы найти <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math>, необходимо решить дифференциальное уравнение в частных производных, которое мы рассмотрим в четвёртой главе. Недостатком этого подхода является то, что получение конечного результата иногда требует более кропотливых вычислений, чем в рамках других методов. Примером тому служит описание процесса Орнштейна-Уленбека или [[Процесс Феллера|процесса Феллера]].
+
<math>\textstyle \triangleright</math> ''Плотность вероятности'' является базовым и наиболее общим языком описания случайных функций. Так как мы ограничились классом марковских процессов, знание вероятности перехода <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> между двумя точками позволяет записать вероятность всей траектории. В результате можно вычислять разнообразные средние, и т.п. Чтобы найти <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math>, необходимо решить дифференциальное уравнение в частных производных, которое мы рассмотрим в четвёртой главе. Недостатком этого подхода является то, что получение конечного результата иногда требует более кропотливых вычислений, чем в рамках других методов. Примером тому служит описание процесса Орнштейна-Уленбека или процесса Феллера (стр. \pageref{feller_equation}).
  
 
<math>\textstyle \triangleright</math> ''Уравнения для средних'' мы рассмотрим в следующей главе. Если целью исследования является поиск различных средних значений стохастического процесса, то решение этих уравнений может оказаться самым прямым и простым способом. Дифференциальные уравнения для средних часто приводят к полезным соотношениям в асимптотическом пределе <math>\textstyle t\to\infty</math> и удобны при построении приближённых методов. Кроме ограниченности получаемых результатов, недостаток подхода в том, что эти уравнения оказываются замкнутыми лишь для относительно узкого класса задач.
 
<math>\textstyle \triangleright</math> ''Уравнения для средних'' мы рассмотрим в следующей главе. Если целью исследования является поиск различных средних значений стохастического процесса, то решение этих уравнений может оказаться самым прямым и простым способом. Дифференциальные уравнения для средних часто приводят к полезным соотношениям в асимптотическом пределе <math>\textstyle t\to\infty</math> и удобны при построении приближённых методов. Кроме ограниченности получаемых результатов, недостаток подхода в том, что эти уравнения оказываются замкнутыми лишь для относительно узкого класса задач.
Строка 67: Строка 75:
 
где <math>\textstyle P(\varepsilon)</math> &mdash; распределение Гаусса. Проводя во втором интеграле обратную замену <math>\textstyle x=f(t, \varepsilon)</math>, мы переходим к первому интегралу, и, следовательно, плотность вероятности случайного процесса в момент времени <math>\textstyle t</math> равна:
 
где <math>\textstyle P(\varepsilon)</math> &mdash; распределение Гаусса. Проводя во втором интеграле обратную замену <math>\textstyle x=f(t, \varepsilon)</math>, мы переходим к первому интегралу, и, следовательно, плотность вероятности случайного процесса в момент времени <math>\textstyle t</math> равна:
  
:<center><math> P(x_0, t_0 \Rightarrow x,t) = \frac{1}{\sqrt{2\pi}}\,\frac{\partial g(x,t)}{\partial x}\, \exp\left\{-\frac{1}{2}\, g^2(x,t)\right\}, </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> P(x_0, t_0 \Rightarrow x,t) = \frac{1}{\sqrt{2\pi}}\,\frac{\partial g(x,t)}{\partial x}\, \exp\left\{-\frac{1}{2}\, g^2(x,t)\right\}, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.36)'''</div>
 +
|}
  
 
где <math>\textstyle g(x,t)</math> &mdash; обратная к <math>\textstyle x=f(t, \varepsilon)</math> функция, т.е. <math>\textstyle \varepsilon=g(x,t)</math>.
 
где <math>\textstyle g(x,t)</math> &mdash; обратная к <math>\textstyle x=f(t, \varepsilon)</math> функция, т.е. <math>\textstyle \varepsilon=g(x,t)</math>.
  
 
В заключение выскажем очевидную истину. Использование того или иного языка должно диктоваться в первую очередь соображением простоты. В зависимости от того, какие задачи решаются, более адекватным может оказаться любой из перечисленных выше подходов.
 
В заключение выскажем очевидную истину. Использование того или иного языка должно диктоваться в первую очередь соображением простоты. В зависимости от того, какие задачи решаются, более адекватным может оказаться любой из перечисленных выше подходов.
 +
  
 
----
 
----

Текущая версия на 18:58, 9 марта 2010

Простые стохастические модели << Оглавление >> Автокорреляция и спектр

Мы записываем решения стохастических уравнений с начальным условием при помощи одной или нескольких случайных величин и гладкой функции времени: . Так как свойства обычно хорошо известны, такое представление позволяет легко находить разнообразные средние и марковскую плотность условной вероятности .

Сама по себе функция не позволяет нарисовать одиночную траекторию. Если мы сгенерим некоторое конкретное число , то не будет графиком случайного процесса. Это обычная гладкая функция. Например, для винеровского процесса без сноса:

(2.33)

Никаких изломов, типичных для случайного процесса, тут, конечно, нет. Дело в том, что для получения свойств в каждый момент времени необходимо генерить различные случайные числа .

Тем не менее, благодаря "марковости" процессов "начальные" условия могут быть значением случайной функции на любом этапе эволюции. В частности, мы можем записать следующую цепочку решений:

Path from f.png

где интервалы времени произвольны. Так как случайные переходы от одного момента времени к следующему не перекрываются, случайные числа , , ,.. являются статистически независимыми. Это позволяет вычислять средние, относящиеся к различным моментам времени, и строить выборочные траектории. При этом возникают последовательности вложенных функций, например:

В случае винеровского блуждания, выбирая равный интервал между последовательными моментами времени, мы получим:

Хотя выражение для похоже на итерационную схему, это, на самом деле, точное соотношение, и может быть сколь угодно большим.

Существуют и другие способы представления траектории случайного процесса. Рассмотрим для примера разложение Палея-Винера винеровского блуждания на интервале времени :

(2.34)

где — независимые нормально распределённые случайные величины. Это разложение имеет такие же статистические свойства, как и существенно более простая запись (2.33). Чтобы в этом убедиться, вычислим среднее квадрата (простое среднее равно нулю ):

(2.35)

где мы воспользовались свойством независимости , если и . Равенство проверяется при помощи фурье — разложения функции на интервале ( H).

В результате получается такой же результат, как и для (2.33). Плотности вероятности величин (2.33) и (2.34) совпадают, так как сумма гауссовых чисел ,,... — это опять гауссово число, дисперсия которого, как мы показали, равна .

Достоинством представления Палея-Винера является то, что с его помощью можно записывать непрерывную функцию одиночной траектории, на конечном интервале времени . Для этого, естественно, приходится обрезать суммирование на достаточно большом индексе . Затем генерятся независимые случайные числа ,...,, и фурье — разложение даёт изломанную кривую. На рисунках ниже приведено последовательное увеличение числа слагаемых в сумме: . При этом случайные числа , ,.. на каждом графике повторяются:

Paley.png

Видно, что степень изломанности траектории увеличивается, стремясь в пределе к недифференцируемой стохастической кривой.

Изучая стохастические дифференциальные уравнения, можно использовать различный "язык" и различные математические конструкции. Кратко перечислим основные подходы к представлению решений стохастических уравнений, их сильные и слабые стороны.

Плотность вероятности является базовым и наиболее общим языком описания случайных функций. Так как мы ограничились классом марковских процессов, знание вероятности перехода между двумя точками позволяет записать вероятность всей траектории. В результате можно вычислять разнообразные средние, и т.п. Чтобы найти , необходимо решить дифференциальное уравнение в частных производных, которое мы рассмотрим в четвёртой главе. Недостатком этого подхода является то, что получение конечного результата иногда требует более кропотливых вычислений, чем в рамках других методов. Примером тому служит описание процесса Орнштейна-Уленбека или процесса Феллера (стр. \pageref{feller_equation}).

Уравнения для средних мы рассмотрим в следующей главе. Если целью исследования является поиск различных средних значений стохастического процесса, то решение этих уравнений может оказаться самым прямым и простым способом. Дифференциальные уравнения для средних часто приводят к полезным соотношениям в асимптотическом пределе и удобны при построении приближённых методов. Кроме ограниченности получаемых результатов, недостаток подхода в том, что эти уравнения оказываются замкнутыми лишь для относительно узкого класса задач.

Сведение к известному процессу является очень распространённым подходом. Обычно при этом используется винеровский процесс с хорошо изученными и простыми свойствами. Например, логарифмическое блуждание явным образом демонстрирует деформацию винеровского процесса в процесс . Подобные решения ищутся при помощи леммы Ито и подходящей замены. Достоинством подхода является быстрота получения конечного результата (когда это возможно). Кроме этого, мы имеем простую запись для выборочных траекторий. Например, можно сгенерить конкретную траекторию и, подставив её в , получить выборочную траекторию процесса . Недостатком подхода является то, что для многих процессов найти простую функцию не очень просто. Так, уже для процесса Орнштейна-Уленбека в аргументе функции необходимо дополнительно деформировать время, а процесс Феллера вообще не имеет простого представления при помощи .

Стохастические интегралы — это наиболее популярный способ как строгого обоснования стохастических уравнений, так и записи их решения при помощи специфических обозначений. Стохастические интегралы являются достаточно нетривиальной математической конструкцией. Несмотря на то, что это очень красивая и мощная техника, иногда получаемые с её помощью результаты оказываются формальными, и воспользоваться ими для вычисления, например, средних или плотности вероятности не представляется возможным. Мы будем обсуждать стохастическое интегрирование в пятой главе.

Скалярные случайные величины широко используются в этой книге. Стохастичность функции можно придать при помощи обычной случайной величины , не являющейся процессом, и гладкой функции времени. Величина имеет определённое распределение. Чаще всего оно гауссово, однако в общем случае это не обязательно. Дальше мы увидим, что простую форму решению для некоторых процессов можно придать, только используя две или более случайные величины, имеющие совместную плотность вероятности. Запись решения в виде позволяет легко находить различные средние. Кроме этого, функция эквивалентна заданию в неявной форме марковской плотности вероятности . Действительно, при помощи среднего от произвольной функции можно сделать преобразование, например, от гауссовой переменной к (значения начальных условий , опущены):

где — распределение Гаусса. Проводя во втором интеграле обратную замену , мы переходим к первому интегралу, и, следовательно, плотность вероятности случайного процесса в момент времени равна:

(2.36)

где — обратная к функция, т.е. .

В заключение выскажем очевидную истину. Использование того или иного языка должно диктоваться в первую очередь соображением простоты. В зависимости от того, какие задачи решаются, более адекватным может оказаться любой из перечисленных выше подходов.



Простые стохастические модели << Оглавление >> Автокорреляция и спектр

Стохастический мир - простое введение в стохастические дифференциальные уравнения