Модель аддитивного блуждания — различия между версиями

Материал из synset
Перейти к: навигация, поиск
 
(не показаны 2 промежуточные версии этого же участника)
Строка 9: Строка 9:
 
Предположим, что начальное значение <math>\textstyle x=x_0</math>. Далее <math>\textstyle x</math> испытывает <math>\textstyle t=1,2,...</math> случайных независимых гауссовых изменений ("толчков"), каждое с волатильностью <math>\textstyle \sigma</math>. В результате <math>\textstyle x</math> окажется равным накопленной сумме таких изменений:
 
Предположим, что начальное значение <math>\textstyle x=x_0</math>. Далее <math>\textstyle x</math> испытывает <math>\textstyle t=1,2,...</math> случайных независимых гауссовых изменений ("толчков"), каждое с волатильностью <math>\textstyle \sigma</math>. В результате <math>\textstyle x</math> окажется равным накопленной сумме таких изменений:
  
:<center><math> x_t=x_0 + \sigma\cdot(\varepsilon_1+...+\varepsilon_t), </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> x_t=x_0 + \sigma\cdot(\varepsilon_1+...+\varepsilon_t), </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.38)'''</div>
 +
|}
  
 
где <math>\textstyle \varepsilon_i\sim N(0,1)</math> &mdash; гауссовы числа с нулевым средним и единичной дисперсией. Индекс <math>\textstyle t</math> пока является целым числом, однако в дальнейшем мы перейдём к пределу непрерывного времени.
 
где <math>\textstyle \varepsilon_i\sim N(0,1)</math> &mdash; гауссовы числа с нулевым средним и единичной дисперсией. Индекс <math>\textstyle t</math> пока является целым числом, однако в дальнейшем мы перейдём к пределу непрерывного времени.
Строка 15: Строка 18:
 
Удобно ввести ''дискретную переменную Винера'':
 
Удобно ввести ''дискретную переменную Винера'':
  
:<center><math> W_t = \varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> W_t = \varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.39)'''</div>
 +
|}
  
Второе равенство мы записали, так как сумма <math>\textstyle t</math> гауссовых чисел снова равна гауссовому числу с волатильностью <math>\textstyle \sqrt{t}</math>.  Случайные числа, как с индексами <math>\textstyle \varepsilon_i</math>, так и без них <math>\textstyle \varepsilon</math>, предполагаются нормированными: <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>, т.е. как <math>\textstyle \varepsilon\sim N(0,1)</math>. Модель () теперь выглядит следующим образом:  <math>\textstyle x_t=x_0+\sigma\cdot W_t</math>.
+
Второе равенство мы записали, так как сумма <math>\textstyle t</math> гауссовых чисел снова равна гауссовому числу с волатильностью <math>\textstyle \sqrt{t}</math>.  Случайные числа, как с индексами <math>\textstyle \varepsilon_i</math>, так и без них <math>\textstyle \varepsilon</math>, предполагаются нормированными: <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>, т.е. как <math>\textstyle \varepsilon\sim N(0,1)</math>. Модель (1.38) теперь выглядит следующим образом:  <math>\textstyle x_t=x_0+\sigma\cdot W_t</math>.
  
 
Смоделируем такое блуждание  при помощи компьютера. Начиная с <math>\textstyle x_0=0</math>, будем генерить случайные числа <math>\textstyle \varepsilon_1</math>, <math>\textstyle \varepsilon_2</math>, ... и строить их накопленную сумму (1-й рисунок):   
 
Смоделируем такое блуждание  при помощи компьютера. Начиная с <math>\textstyle x_0=0</math>, будем генерить случайные числа <math>\textstyle \varepsilon_1</math>, <math>\textstyle \varepsilon_2</math>, ... и строить их накопленную сумму (1-й рисунок):   
Строка 25: Строка 31:
 
Так как изменения <math>\textstyle \varepsilon_k</math> будут каждый раз новыми, то по-разному будут протекать и блуждания траектории <math>\textstyle x_t=x(t)</math>  (см. 2-й рисунок). Различные реализации процесса блуждания пересекают вертикальную прямую <math>\textstyle t=const</math> в тех или иных значениях <math>\textstyle x</math>. Совокупность всех этих чисел является случайной величиной.
 
Так как изменения <math>\textstyle \varepsilon_k</math> будут каждый раз новыми, то по-разному будут протекать и блуждания траектории <math>\textstyle x_t=x(t)</math>  (см. 2-й рисунок). Различные реализации процесса блуждания пересекают вертикальную прямую <math>\textstyle t=const</math> в тех или иных значениях <math>\textstyle x</math>. Совокупность всех этих чисел является случайной величиной.
  
Поэтому, говоря о ''процессе'' <math>\textstyle x(t)</math>, мы подразумеваем, что в данный момент времени <math>\textstyle x=x(t)</math> имеет определённое распределение <math>\textstyle P(x)</math>. В некоторый другой момент времени распределение может оказаться иным. Поэтому плотность вероятности <math>\textstyle P(x,t)</math>, среднее <math>\textstyle \bar{x}(t)</math> и волатильность <math>\textstyle \sigma(t)</math> будут функциями времени.
+
Поэтому, говоря о ''процессе'' <math>\textstyle x(t)</math>, мы подразумеваем, что ''в данный момент времени'' <math>\textstyle x=x(t)</math> имеет определённое распределение <math>\textstyle P(x)</math>. В некоторый другой момент времени распределение может оказаться иным. Поэтому плотность вероятности <math>\textstyle P(x,t)</math>, среднее <math>\textstyle \bar{x}(t)</math> и волатильность <math>\textstyle \sigma(t)</math> будут функциями времени.
  
 
Волатильность аддитивного блуждания увеличивается, как <math>\textstyle \sqrt{t}</math>. Это наглядно видно на 2-м рисунке с несколькими реализациями <math>\textstyle x_t</math>. Их "пучок" постепенно расширяется. В результате неопределённость будущего значения <math>\textstyle x_t</math> увеличивается. Мы можем обнаружить <math>\textstyle x_t</math> достаточно далеко от начального значения <math>\textstyle x_0=0</math>. Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности <math>\textstyle P(x,t)</math>, которые с течением времени постепенно "расплываются".
 
Волатильность аддитивного блуждания увеличивается, как <math>\textstyle \sqrt{t}</math>. Это наглядно видно на 2-м рисунке с несколькими реализациями <math>\textstyle x_t</math>. Их "пучок" постепенно расширяется. В результате неопределённость будущего значения <math>\textstyle x_t</math> увеличивается. Мы можем обнаружить <math>\textstyle x_t</math> достаточно далеко от начального значения <math>\textstyle x_0=0</math>. Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности <math>\textstyle P(x,t)</math>, которые с течением времени постепенно "расплываются".
Строка 37: Строка 43:
 
где равенство отражает независимость всех <math>\textstyle \varepsilon_i</math>. Таким образом, <math>\textstyle W_t</math> &mdash; фактически, многомерная случайная величина.
 
где равенство отражает независимость всех <math>\textstyle \varepsilon_i</math>. Таким образом, <math>\textstyle W_t</math> &mdash; фактически, многомерная случайная величина.
  
Обратим ещё раз внимание на смысл записи: <math>\textstyle \varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}</math>. Предположим, что в процессе моделирования мы генерим <math>\textstyle t</math> независимых гауссовых чисел <math>\textstyle \varepsilon_1, \varepsilon_2,...</math> и складываем их. Результат будет иметь ''такие же статистические свойства'', как одно гауссово число <math>\textstyle \varepsilon</math> с единичной волатильностью, умноженное на фактор <math>\textstyle \sqrt{t}</math>. При вычислении х свойств накопленной суммы вполне достаточно пользоваться величиной <math>\textstyle \varepsilon</math>, а не полной плотностью <math>\textstyle P(\varepsilon_1,...,\varepsilon_t)</math>. В частности, если мы ищем  среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы  некоторые ухищрения. Рассмотрим их подробнее.
+
Обратим ещё раз внимание на смысл записи: <math>\textstyle \varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}</math>. Предположим, что в процессе моделирования мы генерим <math>\textstyle t</math> независимых гауссовых чисел <math>\textstyle \varepsilon_1, \varepsilon_2,...</math> и складываем их. Результат будет иметь ''такие же статистические свойства'', как одно гауссово число <math>\textstyle \varepsilon</math> с единичной волатильностью, умноженное на фактор <math>\textstyle \sqrt{t}</math>. При вычислении свойств накопленной суммы вполне достаточно пользоваться величиной <math>\textstyle \varepsilon</math>, а не совместной плотностью <math>\textstyle P(\varepsilon_1,...,\varepsilon_t)</math>. В частности, если мы ищем  среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы  некоторые ухищрения. Рассмотрим их подробнее.
  
 
<math>\textstyle \bullet</math> Для сравнения процесса блуждания с самим собой в различные моменты времени его необходимо разбивать на ''неперекрывающиеся'' участки времени. Пусть процесс длится  <math>\textstyle s</math> шагов, а затем еще в течение <math>\textstyle t-s</math>. Сравним свойства траекторий в "моменты времени" <math>\textstyle s</math> и <math>\textstyle t</math> (<math>\textstyle s<t</math>):
 
<math>\textstyle \bullet</math> Для сравнения процесса блуждания с самим собой в различные моменты времени его необходимо разбивать на ''неперекрывающиеся'' участки времени. Пусть процесс длится  <math>\textstyle s</math> шагов, а затем еще в течение <math>\textstyle t-s</math>. Сравним свойства траекторий в "моменты времени" <math>\textstyle s</math> и <math>\textstyle t</math> (<math>\textstyle s<t</math>):
Строка 49: Строка 55:
 
Второе равенство является отражением того, что суммарная волатильность <math>\textstyle t-s</math> независимых гауссовых слагаемых будет равна <math>\textstyle \sqrt{t-s}</math>. Фактически, <math>\textstyle W_s</math> и <math>\textstyle W_t</math> можно представить в виде:
 
Второе равенство является отражением того, что суммарная волатильность <math>\textstyle t-s</math> независимых гауссовых слагаемых будет равна <math>\textstyle \sqrt{t-s}</math>. Фактически, <math>\textstyle W_s</math> и <math>\textstyle W_t</math> можно представить в виде:
  
:<center><math> \begin{array}{l} W_s= \varepsilon_a\, \sqrt{s},  \ W_t= \varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s}, \end{array} </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \begin{array}{l} W_s= \varepsilon_a\, \sqrt{s},  \ W_t= \varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s}, \end{array} </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.40)'''</div>
 +
|}
  
 
где <math>\textstyle \varepsilon_a</math>, <math>\textstyle \varepsilon_b</math>, как и везде в наших лекциях, &mdash;  независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них &mdash; <math>\textstyle \varepsilon_a</math> &mdash; эквивалентно накопленной сумме начальных <math>\textstyle s</math> приращений, а второе &mdash; <math>\textstyle \varepsilon_b</math> &mdash; соответствует ''независимым'' от <math>\textstyle \varepsilon_a</math> последующим  <math>\textstyle t-s</math> приращениям.
 
где <math>\textstyle \varepsilon_a</math>, <math>\textstyle \varepsilon_b</math>, как и везде в наших лекциях, &mdash;  независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них &mdash; <math>\textstyle \varepsilon_a</math> &mdash; эквивалентно накопленной сумме начальных <math>\textstyle s</math> приращений, а второе &mdash; <math>\textstyle \varepsilon_b</math> &mdash; соответствует ''независимым'' от <math>\textstyle \varepsilon_a</math> последующим  <math>\textstyle t-s</math> приращениям.
Строка 57: Строка 66:
 
:<center><math>\mathrm{cov}(s,t) = \left\langle  W_sW_t\right\rangle =\left\langle \varepsilon_a\, \sqrt{s} \cdot \bigl(\varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s}\bigr) \right\rangle  = s,</math></center>
 
:<center><math>\mathrm{cov}(s,t) = \left\langle  W_sW_t\right\rangle =\left\langle \varepsilon_a\, \sqrt{s} \cdot \bigl(\varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s}\bigr) \right\rangle  = s,</math></center>
  
в силу того, что <math>\textstyle \left\langle \varepsilon_a^2\right\rangle =1</math> и <math>\textstyle \left\langle \varepsilon_a\varepsilon_b\right\rangle =0</math>. Таким образом, ковариация зависит только от наименьшего числа <math>\textstyle s=\min(s,t)</math>, представляющего собой длительность общей для <math>\textstyle W_s</math> и <math>\textstyle W_t</math> истории. Для прояснения смысла этого результата запишем регрессионную прямую () между <math>\textstyle W_s</math> и <math>\textstyle W_t</math>. Их волатильности равны <math>\textstyle \sqrt{s}</math> и <math>\textstyle \sqrt{t}</math>, а средние &mdash; нулю, поэтому:
+
в силу того, что <math>\textstyle \left\langle \varepsilon_a^2\right\rangle =1</math> и <math>\textstyle \left\langle \varepsilon_a\varepsilon_b\right\rangle =0</math>. Таким образом, ковариация зависит только от наименьшего числа <math>\textstyle s=\min(s,t)</math>, представляющего собой длительность общей для <math>\textstyle W_s</math> и <math>\textstyle W_t</math> истории. Для прояснения смысла этого результата запишем регрессионную прямую (1.25) между <math>\textstyle W_s</math> и <math>\textstyle W_t</math>. Их волатильности равны <math>\textstyle \sqrt{s}</math> и <math>\textstyle \sqrt{t}</math>, а средние &mdash; нулю, поэтому:
  
 
:<center><math>\frac{W_t}{\sqrt{t}} = \frac{\mathrm{cov}(s,t)}{\sqrt{s}\sqrt{t}}\cdot \frac{W_s}{\sqrt{s}}+\frac{\xi}{\sqrt{t}}\;\;\;\;\;\;\; =>\;\;\;\;\;\;W_t=W_s+\xi.</math></center>
 
:<center><math>\frac{W_t}{\sqrt{t}} = \frac{\mathrm{cov}(s,t)}{\sqrt{s}\sqrt{t}}\cdot \frac{W_s}{\sqrt{s}}+\frac{\xi}{\sqrt{t}}\;\;\;\;\;\;\; =>\;\;\;\;\;\;W_t=W_s+\xi.</math></center>
  
Таким образом, если известно, что в момент времени <math>\textstyle s</math> сумма равна <math>\textstyle W_s</math>, то наилучшим прогнозом будущего значения <math>\textstyle W_t</math> будет уже известное <math>\textstyle W_s</math>. Из () следует, что линейная регрессионная модель оказывается в данном случае точной. При этом её "шумом" выступают накопленные после момента времени <math>\textstyle s</math> изменения: <math>\textstyle \xi=\varepsilon_{s+1}+...+\varepsilon_{t}=\varepsilon_b\sqrt{t-s}</math>.
+
Таким образом, если известно, что в момент времени <math>\textstyle s</math> сумма равна <math>\textstyle W_s</math>, то наилучшим прогнозом будущего значения <math>\textstyle W_t</math> будет уже известное <math>\textstyle W_s</math>. Из (1.40) следует, что линейная регрессионная модель оказывается в данном случае точной. При этом её "шумом" выступают накопленные после момента времени <math>\textstyle s</math> изменения: <math>\textstyle \xi=\varepsilon_{s+1}+...+\varepsilon_{t}=\varepsilon_b\sqrt{t-s}</math>.
  
 
Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения (<math>\textstyle i<j<k</math>):
 
Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения (<math>\textstyle i<j<k</math>):
Строка 79: Строка 88:
 
Для винеровского процесса ситуация существенно упрощается, так как каждое следующее <math>\textstyle x_{t+1}</math> определяется значением непосредственно предшествующего <math>\textstyle x_t</math> и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде:
 
Для винеровского процесса ситуация существенно упрощается, так как каждое следующее <math>\textstyle x_{t+1}</math> определяется значением непосредственно предшествующего <math>\textstyle x_t</math> и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде:
  
:<center><math> P(x_1,...,x_{t} \Rightarrow x_{t+1})  \;=\; P(x_{t} \Rightarrow x_{t+1}). </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> P(x_1,...,x_{t} \Rightarrow x_{t+1})  \;=\; P(x_{t} \Rightarrow x_{t+1}). </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.41)'''</div>
 +
|}
  
 
Если известно <math>\textstyle x_t</math>, то <math>\textstyle x_{t+1}</math> будет определяться значением <math>\textstyle x_t</math> и случайным изменением <math>\textstyle \varepsilon</math>, а не всей историей <math>\textstyle x_1,...,x_{t-1}</math>. Процессы с такой "короткой памятью" называются ''марковскими процессами''. Они представляют собой следующее  приближение после независимости случайных величин, для которых <math>\textstyle P(x_1,...,x_{t} \Rightarrow x_{t+1})=P(x_{t+1}).</math>
 
Если известно <math>\textstyle x_t</math>, то <math>\textstyle x_{t+1}</math> будет определяться значением <math>\textstyle x_t</math> и случайным изменением <math>\textstyle \varepsilon</math>, а не всей историей <math>\textstyle x_1,...,x_{t-1}</math>. Процессы с такой "короткой памятью" называются ''марковскими процессами''. Они представляют собой следующее  приближение после независимости случайных величин, для которых <math>\textstyle P(x_1,...,x_{t} \Rightarrow x_{t+1})=P(x_{t+1}).</math>
Строка 85: Строка 97:
 
Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например:
 
Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например:
  
:<center><math> P(x_1,x_2,x_3) = P(x_1) \cdot P(x_1 \Rightarrow x_2) \cdot P(x_2 \Rightarrow x_3). </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> P(x_1,x_2,x_3) = P(x_1) \cdot P(x_1 \Rightarrow x_2) \cdot P(x_2 \Rightarrow x_3). </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.42)'''</div>
 +
|}
  
 
Для этого сначала записываем <math>\textstyle P(x_1,x_2, x_3)=P(x_1,x_2) \cdot P(x_1,x_2 \Rightarrow x_3)</math> по определению условной вероятности. Затем используем определение для <math>\textstyle P(x_1,x_2)=P(x_1)P(x_1\Rightarrow x_2)</math>  и марковское условие короткой памяти: <math>\textstyle P(x_1,x_2\Rightarrow x_3)=P(x_2\Rightarrow x_3)</math>. Таким образом, чтобы произошло  <math>\textstyle x_1,x_2,x_3</math>, необходимо, чтобы свершилось <math>\textstyle x_1</math>. ''При условии'', что это произошло, далее реализовалось <math>\textstyle x_2</math>, и т.д.
 
Для этого сначала записываем <math>\textstyle P(x_1,x_2, x_3)=P(x_1,x_2) \cdot P(x_1,x_2 \Rightarrow x_3)</math> по определению условной вероятности. Затем используем определение для <math>\textstyle P(x_1,x_2)=P(x_1)P(x_1\Rightarrow x_2)</math>  и марковское условие короткой памяти: <math>\textstyle P(x_1,x_2\Rightarrow x_3)=P(x_2\Rightarrow x_3)</math>. Таким образом, чтобы произошло  <math>\textstyle x_1,x_2,x_3</math>, необходимо, чтобы свершилось <math>\textstyle x_1</math>. ''При условии'', что это произошло, далее реализовалось <math>\textstyle x_2</math>, и т.д.

Текущая версия на 15:29, 17 февраля 2010

Многомерное распределение Гаусса << Оглавление >> Случайные процессы

Координата броуновской частицы в воде или цена на финансовом рынке имеют траекторию с очень нерегулярными изломами. Простейшим её описанием будет модель аддитивного независимого дискретного случайного блуждания. Все четыре прилагательных в названии модели отражают базовые свойства процесса.

Предположим, что начальное значение . Далее испытывает случайных независимых гауссовых изменений ("толчков"), каждое с волатильностью . В результате окажется равным накопленной сумме таких изменений:

(1.38)

где — гауссовы числа с нулевым средним и единичной дисперсией. Индекс пока является целым числом, однако в дальнейшем мы перейдём к пределу непрерывного времени.

Удобно ввести дискретную переменную Винера:

(1.39)

Второе равенство мы записали, так как сумма гауссовых чисел снова равна гауссовому числу с волатильностью . Случайные числа, как с индексами , так и без них , предполагаются нормированными: , , т.е. как . Модель (1.38) теперь выглядит следующим образом: .

Смоделируем такое блуждание при помощи компьютера. Начиная с , будем генерить случайные числа , , ... и строить их накопленную сумму (1-й рисунок):

Walk winer.png

Так как изменения будут каждый раз новыми, то по-разному будут протекать и блуждания траектории (см. 2-й рисунок). Различные реализации процесса блуждания пересекают вертикальную прямую в тех или иных значениях . Совокупность всех этих чисел является случайной величиной.

Поэтому, говоря о процессе , мы подразумеваем, что в данный момент времени имеет определённое распределение . В некоторый другой момент времени распределение может оказаться иным. Поэтому плотность вероятности , среднее и волатильность будут функциями времени.

Волатильность аддитивного блуждания увеличивается, как . Это наглядно видно на 2-м рисунке с несколькими реализациями . Их "пучок" постепенно расширяется. В результате неопределённость будущего значения увеличивается. Мы можем обнаружить достаточно далеко от начального значения . Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности , которые с течением времени постепенно "расплываются".

Блуждающие траектории начинаются с определённого начального значения в момент времени . Поэтому, говоря о вероятности, мы имеем дело с условной плотностью . Пока моменты времени и являются целыми числами, соответствующими номеру скачка на очередном этапе.

Важно понимать, что не является конкретной траекторией. Это одновременная совокупность всех возможных траекторий случайного процесса. Аналогично, случайное число не подразумевает конкретного значения, а обозначает все возможные реализации, подчиняющиеся некоторому распределению . Вероятность получить на -ом шаге определяется вероятностями всех изменений . Так, дискретный винеровский процесс определяется плотностью вероятности:

где равенство отражает независимость всех . Таким образом, — фактически, многомерная случайная величина.

Обратим ещё раз внимание на смысл записи: . Предположим, что в процессе моделирования мы генерим независимых гауссовых чисел и складываем их. Результат будет иметь такие же статистические свойства, как одно гауссово число с единичной волатильностью, умноженное на фактор . При вычислении свойств накопленной суммы вполне достаточно пользоваться величиной , а не совместной плотностью . В частности, если мы ищем среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы некоторые ухищрения. Рассмотрим их подробнее.

Для сравнения процесса блуждания с самим собой в различные моменты времени его необходимо разбивать на неперекрывающиеся участки времени. Пусть процесс длится шагов, а затем еще в течение . Сравним свойства траекторий в "моменты времени" и ():

Вычитая уравнения, получим сумму случайных чисел:

Второе равенство является отражением того, что суммарная волатильность независимых гауссовых слагаемых будет равна . Фактически, и можно представить в виде:

(1.40)

где , , как и везде в наших лекциях, — независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них — — эквивалентно накопленной сумме начальных приращений, а второе — — соответствует независимым от последующим приращениям.

Теперь можно найти ковариацию между и . Так как , то:

в силу того, что и . Таким образом, ковариация зависит только от наименьшего числа , представляющего собой длительность общей для и истории. Для прояснения смысла этого результата запишем регрессионную прямую (1.25) между и . Их волатильности равны и , а средние — нулю, поэтому:

Таким образом, если известно, что в момент времени сумма равна , то наилучшим прогнозом будущего значения будет уже известное . Из (1.40) следует, что линейная регрессионная модель оказывается в данном случае точной. При этом её "шумом" выступают накопленные после момента времени изменения: .

Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения ():

[Процесс необходимо разбить на три интервала.]

В заключение раздела ответим на следующий вопрос. Если , то какова вероятность обнаружить его на следующем шаге в ? Очевидно, что она равна вероятности изменения :

Мы положили и записали в явном виде гауссову плотность вероятности для . В результате условная вероятность зависит от обоих аргументов, поэтому случайные числа и являются зависимыми.

Дискретная траектория блуждания описывается множеством случайных величин , задающих возможные значения на шаге . Индекс можно записать в функциональной форме и говорить о случайной функции, которая пока определена только в дискретных точках. Таким образом, случайная функция — это многомерная величина. Для задания свойств случайного процесса в общем случае необходимо определить плотность вероятности с бесконечным числом аргументов.

Для винеровского процесса ситуация существенно упрощается, так как каждое следующее определяется значением непосредственно предшествующего и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде:

(1.41)

Если известно , то будет определяться значением и случайным изменением , а не всей историей . Процессы с такой "короткой памятью" называются марковскими процессами. Они представляют собой следующее приближение после независимости случайных величин, для которых

Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например:

(1.42)

Для этого сначала записываем по определению условной вероятности. Затем используем определение для и марковское условие короткой памяти: . Таким образом, чтобы произошло , необходимо, чтобы свершилось . При условии, что это произошло, далее реализовалось , и т.д.


Многомерное распределение Гаусса << Оглавление >> Случайные процессы

Стохастический мир - простое введение в стохастические дифференциальные уравнения