Случайные процессы — различия между версиями

Материал из synset
Перейти к: навигация, поиск
 
(не показано 5 промежуточных версий этого же участника)
Строка 5: Строка 5:
 
|}
 
|}
 
----
 
----
В общем случае мы называем случайным процессом упорядоченную последовательность случайных величин <math>\textstyle x_1, x_2, ...</math>. Вместо индекса, перечисляющего величины, удобно использовать функциональную форму <math>\textstyle x(t)</math>. Если параметр <math>\textstyle t</math> принимает дискретные значения, то мы имеем дело с ''дискретным случайным процессом''. Если же <math>\textstyle t</math> &mdash; непрерывное время, то это ''непрерывный случайный процесс''. В этом случае <math>\textstyle x(t)</math> называется ''случайной функцией''.
+
В общем случае мы называем случайным процессом упорядоченную последовательность случайных величин <math>\textstyle x_1, x_2, ...</math>. Вместо индекса, перечисляющего величины, удобно использовать функциональную форму <math>\textstyle x(t)</math>. Если параметр <math>\textstyle t</math> принимает дискретные значения, то мы имеем дело с ''дискретным случайным процессом''. Если же <math>\textstyle t</math> &mdash; непрерывное время, то это ''непрерывный случайный процесс'' во времени. В этом случае <math>\textstyle x(t)</math> называется ''случайной функцией''.
 +
Заметим, что она может быть и разрывной, например, если <math>\textstyle x(t)</math>
 +
в каждый момент времени равно независимой гауссовой величине (гауссовый шум).
  
 
Случайный процесс необходимо описывать совместной плотностью вероятности для каждого момента времени:
 
Случайный процесс необходимо описывать совместной плотностью вероятности для каждого момента времени:
  
:<center><math> P(x_1, x_2, x_3, ...) \equiv P(x_1, t_1;\;x_2, t_2;\;x_3, t_3;\;...), </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> P(x_1, x_2, x_3, ...) \equiv P(x_1, t_1;\;x_2, t_2;\;x_3, t_3;\;...), </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.43)'''</div>
 +
|}
  
 
где <math>\textstyle t_i</math> явным образом указывают, к какому моменту времени относится значение случайной величины <math>\textstyle x_i</math>. Понятно, что в случае непрерывных процессов работать с такой плотностью вероятности достаточно сложно. Поэтому её размерность стараются уменьшить. Если проинтегрировать по всем случайным величинам <math>\textstyle x_i</math>, кроме одной, получится плотность вероятности в фиксированный момент времени <math>\textstyle P(x,t)</math>. Аналогично можно определить плотность вероятности в два произвольных момента времени <math>\textstyle P(x_1, t_1;\;x_2, t_2)</math>, и т.д. Заметим, что <math>\textstyle t</math>, в отличие от <math>\textstyle x</math>, &mdash; это не случайная величина, а параметр.
 
где <math>\textstyle t_i</math> явным образом указывают, к какому моменту времени относится значение случайной величины <math>\textstyle x_i</math>. Понятно, что в случае непрерывных процессов работать с такой плотностью вероятности достаточно сложно. Поэтому её размерность стараются уменьшить. Если проинтегрировать по всем случайным величинам <math>\textstyle x_i</math>, кроме одной, получится плотность вероятности в фиксированный момент времени <math>\textstyle P(x,t)</math>. Аналогично можно определить плотность вероятности в два произвольных момента времени <math>\textstyle P(x_1, t_1;\;x_2, t_2)</math>, и т.д. Заметим, что <math>\textstyle t</math>, в отличие от <math>\textstyle x</math>, &mdash; это не случайная величина, а параметр.
  
Часто процесс изучается после того, как стало известным его начальное значение <math>\textstyle x_0</math> в некоторый момент времени <math>\textstyle t_0</math>. В этом случае целесообразно применять условные плотности вероятности. Например, одноточечная:
+
Часто процесс изучается после того, как стало известным его начальное значение <math>\textstyle x_0</math> в момент времени <math>\textstyle t_0</math>. В этом случае целесообразно применять условные плотности вероятности. Например, одноточечная:
  
 
:<center><math>P(x_0\Rightarrow x_1)\equiv P(x_0, t_0\Rightarrow x_1, t_1)</math></center>
 
:<center><math>P(x_0\Rightarrow x_1)\equiv P(x_0, t_0\Rightarrow x_1, t_1)</math></center>
Строка 25: Строка 30:
 
Случайные величины, совокупность которых образует случайный процесс, могут быть как независимыми, так и связанными. Если величины независимы, график выборочного процесса будет выглядеть, как хаотические выбросы вверх и вниз от среднего значения. Такой процесс называют шумом. При наличии некоторой связи между последовательными значениями график  может иметь хотя и очень изломанную, но всё же относительно связную динамику. Примером подобного процесса является дискретное аддитивное блуждание, рассмотренное выше.
 
Случайные величины, совокупность которых образует случайный процесс, могут быть как независимыми, так и связанными. Если величины независимы, график выборочного процесса будет выглядеть, как хаотические выбросы вверх и вниз от среднего значения. Такой процесс называют шумом. При наличии некоторой связи между последовательными значениями график  может иметь хотя и очень изломанную, но всё же относительно связную динамику. Примером подобного процесса является дискретное аддитивное блуждание, рассмотренное выше.
  
<math>\textstyle \bullet</math> Описание случайного процесса существенно упрощается, если его полная плотность вероятности () или соответствующая  ей условная вероятность обладают некоторыми свойствами, позволяющими связывать прошлые и будущие значения. Нас будет интересовать класс случайных процессов, для которых условная вероятность зависит только от последнего известного значения, а не от всей предыстории:
+
<math>\textstyle \bullet</math> Описание случайного процесса существенно упрощается, если его полная плотность вероятности (1.43) или соответствующая  ей условная вероятность обладают некоторыми свойствами, позволяющими связывать прошлые и будущие значения. Нас будет интересовать класс случайных процессов, для которых условная вероятность зависит только от последнего известного значения, а не от всей предыстории:
  
 
:<center><math>P(..., x_{t-2}, x_{t-1}, x_t \Rightarrow x_{t+1})  = \frac{P(..., x_{t-2}, x_{t-1}, x_t , x_{t+1})}{P(..., x_{t-2}, x_{t-1}, x_t)}  =  P(x_t \Rightarrow x_{t+1}),</math></center>
 
:<center><math>P(..., x_{t-2}, x_{t-1}, x_t \Rightarrow x_{t+1})  = \frac{P(..., x_{t-2}, x_{t-1}, x_t , x_{t+1})}{P(..., x_{t-2}, x_{t-1}, x_t)}  =  P(x_t \Rightarrow x_{t+1}),</math></center>
  
где опущены моменты времени. Как мы уже говорили, подобные процессы являются ''марковскими''. При выполнении условия марковости совместную плотность вероятности ''произвольной размерности'' можно выразить через произведение условных вероятностей <math>\textstyle P(x_1, t_1 \Rightarrow x_2, t_2)</math>, см.  (). В этом случае для полного описания свойств случайного процесса достаточно знания функции  только четырех аргументов, а не бесконечного их числа, как в формуле ().
+
где опущены моменты времени. Как мы уже говорили, подобные процессы являются ''марковскими''. При выполнении условия марковости совместную плотность вероятности ''произвольной размерности'' можно выразить через произведение условных вероятностей <math>\textstyle P(x_1, t_1 \Rightarrow x_2, t_2)</math>, см.  (1.42). В этом случае для полного описания свойств случайного процесса достаточно знания функции  только четырех аргументов, а не бесконечного их числа, как в формуле (1.43).
  
 
<math>\textstyle \bullet</math> Чтобы в результате эмпирических исследований выяснить форму даже простой условной плотности вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math>, необходимо достаточно большое количество реализаций случайных процессов. Поэтому, как и для обычных случайных величин, важную роль играют интегральные характеристики случайного процесса. Естественно, они становятся  функциями времени. Если известно значение процесса <math>\textstyle x_0</math> в момент времени <math>\textstyle t_0</math>, то ''условное среднее'' значение равно:
 
<math>\textstyle \bullet</math> Чтобы в результате эмпирических исследований выяснить форму даже простой условной плотности вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math>, необходимо достаточно большое количество реализаций случайных процессов. Поэтому, как и для обычных случайных величин, важную роль играют интегральные характеристики случайного процесса. Естественно, они становятся  функциями времени. Если известно значение процесса <math>\textstyle x_0</math> в момент времени <math>\textstyle t_0</math>, то ''условное среднее'' значение равно:
  
:<center><math> \bar{x}(t)  = \int\limits^\infty_{-\infty} x\cdot P(x_0,t_0 \Rightarrow x, t) \,dx. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \bar{x}(t,t_0,x_0)  = \int\limits^\infty_{-\infty} x\cdot P(x_0,t_0 \Rightarrow x, t) \,dx. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.44)'''</div>
 +
|}
  
 
Аналогично определяется ''условная дисперсия'' (квадрат волатильности):
 
Аналогично определяется ''условная дисперсия'' (квадрат волатильности):
  
:<center><math> \sigma^2(t) = \int\limits^\infty_{-\infty} \bigl(x-\bar{x}(t)\bigr)^2\cdot P(x_0,t_0 \Rightarrow x, t) \,dx. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \sigma^2(t,t_0,x_0) = \int\limits^\infty_{-\infty} \bigl(x-\bar{x}(t)\bigr)^2\cdot P(x_0,t_0 \Rightarrow x, t) \,dx. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.45)'''</div>
 +
|}
  
 
Далее мы будем говорить о решениях стохастических дифференциальных уравнений. В случае, когда случайные воздействия '''Noise''' на изменение величины <math>\textstyle x</math> невелики, среднее значение будет приближённо соответствовать гладкому решению обыкновенного дифференциального уравнения без стохастического воздействия. Волатильность при этом характеризует типичный "коридор" колебаний различных реализаций случайного процесса вокруг этого среднего значения.
 
Далее мы будем говорить о решениях стохастических дифференциальных уравнений. В случае, когда случайные воздействия '''Noise''' на изменение величины <math>\textstyle x</math> невелики, среднее значение будет приближённо соответствовать гладкому решению обыкновенного дифференциального уравнения без стохастического воздействия. Волатильность при этом характеризует типичный "коридор" колебаний различных реализаций случайного процесса вокруг этого среднего значения.
Строка 43: Строка 54:
 
<math>\textstyle \bullet</math> Среднее значение <math>\textstyle \bar{x}(t)</math> и волатильность <math>\textstyle \sigma(t)</math> стохастического процесса не полностью характеризуют основные особенности его динамики. Ниже на рисунке приведены несколько реализаций двух различных  процессов:   
 
<math>\textstyle \bullet</math> Среднее значение <math>\textstyle \bar{x}(t)</math> и волатильность <math>\textstyle \sigma(t)</math> стохастического процесса не полностью характеризуют основные особенности его динамики. Ниже на рисунке приведены несколько реализаций двух различных  процессов:   
  
 +
<center>
 
[[File:correl_2_process.png]]
 
[[File:correl_2_process.png]]
 +
</center>
  
Они имеют одинаковое среднее (центральная пунктирная линия) и волатильность &mdash; точечный "коридор", нарисованный вокруг среднего. Тем не менее хорошо видно, что характер этих процессов различный, и  правый имеет менее "гладкую" динамику (<math>\textstyle \lessdot</math> C).
+
Они имеют одинаковое среднее (центральная пунктирная линия) и волатильность &mdash; точечный "коридор", нарисованный вокруг среднего. Тем не менее хорошо видно, что характер этих процессов различный, и  правый имеет менее "гладкую" динамику.
  
 
Поэтому важной характеристикой стохастического процесса является связь "прошлого" и "будущего". Определим ''автоковариацию'' между двумя моментами времени <math>\textstyle t_1<t_2</math> ''при условии'', что при <math>\textstyle t=t_0</math> наблюдалось значение  <math>\textstyle x_0=x(t_0)</math>:
 
Поэтому важной характеристикой стохастического процесса является связь "прошлого" и "будущего". Определим ''автоковариацию'' между двумя моментами времени <math>\textstyle t_1<t_2</math> ''при условии'', что при <math>\textstyle t=t_0</math> наблюдалось значение  <math>\textstyle x_0=x(t_0)</math>:
  
:<center><math> \mathrm{cov}_{t_0}( t_1, t_2) = \left\langle \bigl(x_{t_1}-\bar{x}_{t_1}\bigr)\cdot\bigl(x_{t_2}-\bar{x}_{t_2}\bigr)\right\rangle , </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \mathrm{cov}_{t_0}( t_1, t_2) = \left\langle \bigl(x_{t_1}-\bar{x}_{t_1}\bigr)\cdot\bigl(x_{t_2}-\bar{x}_{t_2}\bigr)\right\rangle , </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.46)'''</div>
 +
|}
  
 
где <math>\textstyle \bar{x}_t=\left\langle x(t)\right\rangle </math> &mdash; среднее значение в момент времени <math>\textstyle t</math>, а <math>\textstyle x_{t_i}=x(t_i)</math>. Приставка "авто-" в названии подчёркивает, что ковариация вычисляется между величиной в момент времени <math>\textstyle t_1</math> и ''ей же'' в другой момент <math>\textstyle t_2</math>.
 
где <math>\textstyle \bar{x}_t=\left\langle x(t)\right\rangle </math> &mdash; среднее значение в момент времени <math>\textstyle t</math>, а <math>\textstyle x_{t_i}=x(t_i)</math>. Приставка "авто-" в названии подчёркивает, что ковариация вычисляется между величиной в момент времени <math>\textstyle t_1</math> и ''ей же'' в другой момент <math>\textstyle t_2</math>.
  
Среднее определяется при помощи условной плотности вероятности <math>\textstyle  P(x_0,t_0 \Rightarrow x, t)</math> и предполагает однократное интегрирование по <math>\textstyle x</math> [см. ().] Фактически <math>\textstyle \bar{x}_t</math> зависит не только от <math>\textstyle t</math>, но и от начальных условий <math>\textstyle x_0</math> и <math>\textstyle t_0</math>. Для определения автоковариационной функции необходимо выполнить двойное интегрирование:
+
Среднее определяется при помощи условной плотности вероятности <math>\textstyle  P(x_0,t_0 \Rightarrow x, t)</math> и предполагает однократное интегрирование по <math>\textstyle x</math> [см. (1.44).] Фактически <math>\textstyle \bar{x}_t</math> зависит не только от <math>\textstyle t</math>, но и от начальных условий <math>\textstyle x_0</math> и <math>\textstyle t_0</math>. Для определения автоковариационной функции необходимо выполнить двойное интегрирование:
  
:<center><math> \mathrm{cov}_{t_0}( t_1, t_2)  = \int\limits^\infty_{-\infty} (x_1-\bar{x}_1)(x_2-\bar{x}_2)\cdot P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2) \,dx_1\,dx_2, </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \mathrm{cov}_{t_0}( t_1, t_2)  = \int\limits^\infty_{-\infty} (x_1-\bar{x}_1)(x_2-\bar{x}_2)\cdot P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2) \,dx_1\,dx_2, </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.47)'''</div>
 +
|}
  
 
где <math>\textstyle P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2)</math> &mdash; плотность совместной вероятности значений <math>\textstyle x_1</math> и <math>\textstyle x_2</math> в моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math> ''при условии'', что в момент времени <math>\textstyle t_0</math> мы имеем  <math>\textstyle x_0=x(t_0)</math>.
 
где <math>\textstyle P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2)</math> &mdash; плотность совместной вероятности значений <math>\textstyle x_1</math> и <math>\textstyle x_2</math> в моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math> ''при условии'', что в момент времени <math>\textstyle t_0</math> мы имеем  <math>\textstyle x_0=x(t_0)</math>.
Строка 61: Строка 80:
 
Эту вероятность можно выразить через марковские условные вероятности. По определению (опуская для краткости времена):
 
Эту вероятность можно выразить через марковские условные вероятности. По определению (опуская для краткости времена):
  
:<center><math> P(x_0 \Rightarrow x_1, x_2) = \frac{P(x_0, x_1,  x_2)}{P(x_0)}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> P(x_0 \Rightarrow x_1, x_2) = \frac{P(x_0, x_1,  x_2)}{P(x_0)}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.48)'''</div>
 +
|}
  
Для трёхточечной совместной вероятности <math>\textstyle P(x_0, x_1,  x_2)</math> запишем цепочку марковских вероятностей [см. (), стр. \pageref{chain_markov}]:
+
Для трёхточечной совместной вероятности <math>\textstyle P(x_0, x_1,  x_2)</math> запишем цепочку марковских вероятностей:
  
 
:<center><math>P(x_0,x_1, x_2) = P(x_0)\cdot P(x_0\Rightarrow x_1)\cdot P(x_1\Rightarrow x_2).</math></center>
 
:<center><math>P(x_0,x_1, x_2) = P(x_0)\cdot P(x_0\Rightarrow x_1)\cdot P(x_1\Rightarrow x_2).</math></center>
  
Подставляя её в формулу () и "возвращая" моменты времени, окончательно получим:
+
Подставляя её в формулу (1.48) и "возвращая" моменты времени, окончательно получим:
  
:<center><math> P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2) = P(x_0,t_0 \Rightarrow x_1, t_1)\cdot P(x_1,t_1 \Rightarrow x_2, t_2). </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> P(x_0,t_0 \Rightarrow x_1, t_1; x_2, t_2) = P(x_0,t_0 \Rightarrow x_1, t_1)\cdot P(x_1,t_1 \Rightarrow x_2, t_2). </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.49)'''</div>
 +
|}
  
Для независимых величин <math>\textstyle x_1</math> и <math>\textstyle x_2</math> совместная плотность вероятности расщепляется на произведение плотности вероятности каждой из переменных. В марковских процессах для условных вероятностей это тоже происходит, но функции "цепляются" друг за друга, в нашем случае &mdash; аргументом <math>\textstyle x_1</math>. Поэтому в () нельзя разделить интегралы, и автоковариация в общем случае не равна нулю.
+
Для независимых величин <math>\textstyle x_1</math> и <math>\textstyle x_2</math> совместная плотность вероятности равна произведению плотностей вероятности каждой из переменных. В марковских процессах для условных вероятностей это тоже происходит, но функции "цепляются" друг за друга, в нашем случае &mdash; аргументом <math>\textstyle x_1</math>. Поэтому в (1.47) нельзя разделить интегралы, и автоковариация в общем случае не равна нулю.
  
 
Индекс начального момента времени <math>\textstyle t_0</math> в записи автоковариационного коэффициента мы будем часто опускать, однако он всегда подразумевается. Как и для волатильности случайной величины, автоковариацию можно вычислять по эквивалентной формуле:
 
Индекс начального момента времени <math>\textstyle t_0</math> в записи автоковариационного коэффициента мы будем часто опускать, однако он всегда подразумевается. Как и для волатильности случайной величины, автоковариацию можно вычислять по эквивалентной формуле:
  
:<center><math> \mathrm{cov}( t_1, t_2) = \left\langle x_{t_1}\cdot x_{t_2}\right\rangle  - \left\langle x_{t_1}\right\rangle \cdot\left\langle x_{t_2}\right\rangle , </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \mathrm{cov}( t_1, t_2) = \left\langle x_{t_1}\cdot x_{t_2}\right\rangle  - \left\langle x_{t_1}\right\rangle \cdot\left\langle x_{t_2}\right\rangle , </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.50)'''</div>
 +
|}
  
где мы перемножили в определении () скобки и разбили среднее суммы на сумму средних. Заметим, что автоковариация  при <math>\textstyle t_1=t_2=t</math> равна дисперсии процесса: <math>\textstyle \sigma^2(t)=\mathrm{cov}(t,t)</math>.
+
где мы перемножили в определении (1.46) скобки и разбили среднее суммы на сумму средних. Заметим, что автоковариация  при <math>\textstyle t_1=t_2=t</math> равна дисперсии процесса: <math>\textstyle \sigma^2(t)=\mathrm{cov}(t,t)</math>.
  
 
''Автокорреляция'' является нормированной автоковариацией и определяется следующим образом:
 
''Автокорреляция'' является нормированной автоковариацией и определяется следующим образом:
  
:<center><math> \rho(t_1, t_2) = \frac{\mathrm{cov}( t_1, t_2)}{\sigma(t_1)\sigma(t_2)}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \rho(t_1, t_2) = \frac{\mathrm{cov}( t_1, t_2)}{\sigma(t_1)\sigma(t_2)}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.51)'''</div>
 +
|}
  
 
Как и для обычных случайных величин, автокорреляция является мерой возможности прогнозирования будущего значения <math>\textstyle x_2=x(t_2)</math>, если наблюдается <math>\textstyle x_1=x(t_1)</math>. При этом и <math>\textstyle x_1</math>, и <math>\textstyle x_2</math> являются случайными величинами. Детерминированным обычно считается только начальное условие <math>\textstyle x_0=x(t_0)</math>, хотя и это не обязательно.
 
Как и для обычных случайных величин, автокорреляция является мерой возможности прогнозирования будущего значения <math>\textstyle x_2=x(t_2)</math>, если наблюдается <math>\textstyle x_1=x(t_1)</math>. При этом и <math>\textstyle x_1</math>, и <math>\textstyle x_2</math> являются случайными величинами. Детерминированным обычно считается только начальное условие <math>\textstyle x_0=x(t_0)</math>, хотя и это не обязательно.

Текущая версия на 15:40, 17 февраля 2010

Модель аддитивного блуждания << Оглавление >> Мартингалы

В общем случае мы называем случайным процессом упорядоченную последовательность случайных величин . Вместо индекса, перечисляющего величины, удобно использовать функциональную форму . Если параметр принимает дискретные значения, то мы имеем дело с дискретным случайным процессом. Если же — непрерывное время, то это непрерывный случайный процесс во времени. В этом случае называется случайной функцией. Заметим, что она может быть и разрывной, например, если в каждый момент времени равно независимой гауссовой величине (гауссовый шум).

Случайный процесс необходимо описывать совместной плотностью вероятности для каждого момента времени:

(1.43)

где явным образом указывают, к какому моменту времени относится значение случайной величины . Понятно, что в случае непрерывных процессов работать с такой плотностью вероятности достаточно сложно. Поэтому её размерность стараются уменьшить. Если проинтегрировать по всем случайным величинам , кроме одной, получится плотность вероятности в фиксированный момент времени . Аналогично можно определить плотность вероятности в два произвольных момента времени , и т.д. Заметим, что , в отличие от , — это не случайная величина, а параметр.

Часто процесс изучается после того, как стало известным его начальное значение в момент времени . В этом случае целесообразно применять условные плотности вероятности. Например, одноточечная:

или двухточечная:

Они будут основными объектами при описании случайных процессов.

Случайные величины, совокупность которых образует случайный процесс, могут быть как независимыми, так и связанными. Если величины независимы, график выборочного процесса будет выглядеть, как хаотические выбросы вверх и вниз от среднего значения. Такой процесс называют шумом. При наличии некоторой связи между последовательными значениями график может иметь хотя и очень изломанную, но всё же относительно связную динамику. Примером подобного процесса является дискретное аддитивное блуждание, рассмотренное выше.

Описание случайного процесса существенно упрощается, если его полная плотность вероятности (1.43) или соответствующая ей условная вероятность обладают некоторыми свойствами, позволяющими связывать прошлые и будущие значения. Нас будет интересовать класс случайных процессов, для которых условная вероятность зависит только от последнего известного значения, а не от всей предыстории:

где опущены моменты времени. Как мы уже говорили, подобные процессы являются марковскими. При выполнении условия марковости совместную плотность вероятности произвольной размерности можно выразить через произведение условных вероятностей , см. (1.42). В этом случае для полного описания свойств случайного процесса достаточно знания функции только четырех аргументов, а не бесконечного их числа, как в формуле (1.43).

Чтобы в результате эмпирических исследований выяснить форму даже простой условной плотности вероятности , необходимо достаточно большое количество реализаций случайных процессов. Поэтому, как и для обычных случайных величин, важную роль играют интегральные характеристики случайного процесса. Естественно, они становятся функциями времени. Если известно значение процесса в момент времени , то условное среднее значение равно:

(1.44)

Аналогично определяется условная дисперсия (квадрат волатильности):

(1.45)

Далее мы будем говорить о решениях стохастических дифференциальных уравнений. В случае, когда случайные воздействия Noise на изменение величины невелики, среднее значение будет приближённо соответствовать гладкому решению обыкновенного дифференциального уравнения без стохастического воздействия. Волатильность при этом характеризует типичный "коридор" колебаний различных реализаций случайного процесса вокруг этого среднего значения.

Среднее значение и волатильность стохастического процесса не полностью характеризуют основные особенности его динамики. Ниже на рисунке приведены несколько реализаций двух различных процессов:

Correl 2 process.png

Они имеют одинаковое среднее (центральная пунктирная линия) и волатильность — точечный "коридор", нарисованный вокруг среднего. Тем не менее хорошо видно, что характер этих процессов различный, и правый имеет менее "гладкую" динамику.

Поэтому важной характеристикой стохастического процесса является связь "прошлого" и "будущего". Определим автоковариацию между двумя моментами времени при условии, что при наблюдалось значение :

(1.46)

где — среднее значение в момент времени , а . Приставка "авто-" в названии подчёркивает, что ковариация вычисляется между величиной в момент времени и ей же в другой момент .

Среднее определяется при помощи условной плотности вероятности и предполагает однократное интегрирование по [см. (1.44).] Фактически зависит не только от , но и от начальных условий и . Для определения автоковариационной функции необходимо выполнить двойное интегрирование:

(1.47)

где — плотность совместной вероятности значений и в моменты времени и при условии, что в момент времени мы имеем .

Эту вероятность можно выразить через марковские условные вероятности. По определению (опуская для краткости времена):

(1.48)

Для трёхточечной совместной вероятности запишем цепочку марковских вероятностей:

Подставляя её в формулу (1.48) и "возвращая" моменты времени, окончательно получим:

(1.49)

Для независимых величин и совместная плотность вероятности равна произведению плотностей вероятности каждой из переменных. В марковских процессах для условных вероятностей это тоже происходит, но функции "цепляются" друг за друга, в нашем случае — аргументом . Поэтому в (1.47) нельзя разделить интегралы, и автоковариация в общем случае не равна нулю.

Индекс начального момента времени в записи автоковариационного коэффициента мы будем часто опускать, однако он всегда подразумевается. Как и для волатильности случайной величины, автоковариацию можно вычислять по эквивалентной формуле:

(1.50)

где мы перемножили в определении (1.46) скобки и разбили среднее суммы на сумму средних. Заметим, что автоковариация при равна дисперсии процесса: .

Автокорреляция является нормированной автоковариацией и определяется следующим образом:

(1.51)

Как и для обычных случайных величин, автокорреляция является мерой возможности прогнозирования будущего значения , если наблюдается . При этом и , и являются случайными величинами. Детерминированным обычно считается только начальное условие , хотя и это не обязательно.


Модель аддитивного блуждания << Оглавление >> Мартингалы

Стохастический мир - простое введение в стохастические дифференциальные уравнения