Модель аддитивного блуждания

Материал из synset
Версия от 15:29, 17 февраля 2010; WikiSysop (обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск
Многомерное распределение Гаусса << Оглавление >> Случайные процессы

Координата броуновской частицы в воде или цена на финансовом рынке имеют траекторию с очень нерегулярными изломами. Простейшим её описанием будет модель аддитивного независимого дискретного случайного блуждания. Все четыре прилагательных в названии модели отражают базовые свойства процесса.

Предположим, что начальное значение . Далее испытывает случайных независимых гауссовых изменений ("толчков"), каждое с волатильностью . В результате окажется равным накопленной сумме таких изменений:

(1.38)

где — гауссовы числа с нулевым средним и единичной дисперсией. Индекс пока является целым числом, однако в дальнейшем мы перейдём к пределу непрерывного времени.

Удобно ввести дискретную переменную Винера:

(1.39)

Второе равенство мы записали, так как сумма гауссовых чисел снова равна гауссовому числу с волатильностью . Случайные числа, как с индексами , так и без них , предполагаются нормированными: , , т.е. как . Модель (1.38) теперь выглядит следующим образом: .

Смоделируем такое блуждание при помощи компьютера. Начиная с , будем генерить случайные числа , , ... и строить их накопленную сумму (1-й рисунок):

Walk winer.png

Так как изменения будут каждый раз новыми, то по-разному будут протекать и блуждания траектории (см. 2-й рисунок). Различные реализации процесса блуждания пересекают вертикальную прямую в тех или иных значениях . Совокупность всех этих чисел является случайной величиной.

Поэтому, говоря о процессе , мы подразумеваем, что в данный момент времени имеет определённое распределение . В некоторый другой момент времени распределение может оказаться иным. Поэтому плотность вероятности , среднее и волатильность будут функциями времени.

Волатильность аддитивного блуждания увеличивается, как . Это наглядно видно на 2-м рисунке с несколькими реализациями . Их "пучок" постепенно расширяется. В результате неопределённость будущего значения увеличивается. Мы можем обнаружить достаточно далеко от начального значения . Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности , которые с течением времени постепенно "расплываются".

Блуждающие траектории начинаются с определённого начального значения в момент времени . Поэтому, говоря о вероятности, мы имеем дело с условной плотностью . Пока моменты времени и являются целыми числами, соответствующими номеру скачка на очередном этапе.

Важно понимать, что не является конкретной траекторией. Это одновременная совокупность всех возможных траекторий случайного процесса. Аналогично, случайное число не подразумевает конкретного значения, а обозначает все возможные реализации, подчиняющиеся некоторому распределению . Вероятность получить на -ом шаге определяется вероятностями всех изменений . Так, дискретный винеровский процесс определяется плотностью вероятности:

где равенство отражает независимость всех . Таким образом, — фактически, многомерная случайная величина.

Обратим ещё раз внимание на смысл записи: . Предположим, что в процессе моделирования мы генерим независимых гауссовых чисел и складываем их. Результат будет иметь такие же статистические свойства, как одно гауссово число с единичной волатильностью, умноженное на фактор . При вычислении свойств накопленной суммы вполне достаточно пользоваться величиной , а не совместной плотностью . В частности, если мы ищем среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы некоторые ухищрения. Рассмотрим их подробнее.

Для сравнения процесса блуждания с самим собой в различные моменты времени его необходимо разбивать на неперекрывающиеся участки времени. Пусть процесс длится шагов, а затем еще в течение . Сравним свойства траекторий в "моменты времени" и ():

Вычитая уравнения, получим сумму случайных чисел:

Второе равенство является отражением того, что суммарная волатильность независимых гауссовых слагаемых будет равна . Фактически, и можно представить в виде:

(1.40)

где , , как и везде в наших лекциях, — независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них — — эквивалентно накопленной сумме начальных приращений, а второе — — соответствует независимым от последующим приращениям.

Теперь можно найти ковариацию между и . Так как , то:

в силу того, что и . Таким образом, ковариация зависит только от наименьшего числа , представляющего собой длительность общей для и истории. Для прояснения смысла этого результата запишем регрессионную прямую (1.25) между и . Их волатильности равны и , а средние — нулю, поэтому:

Таким образом, если известно, что в момент времени сумма равна , то наилучшим прогнозом будущего значения будет уже известное . Из (1.40) следует, что линейная регрессионная модель оказывается в данном случае точной. При этом её "шумом" выступают накопленные после момента времени изменения: .

Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения ():

[Процесс необходимо разбить на три интервала.]

В заключение раздела ответим на следующий вопрос. Если , то какова вероятность обнаружить его на следующем шаге в ? Очевидно, что она равна вероятности изменения :

Мы положили и записали в явном виде гауссову плотность вероятности для . В результате условная вероятность зависит от обоих аргументов, поэтому случайные числа и являются зависимыми.

Дискретная траектория блуждания описывается множеством случайных величин , задающих возможные значения на шаге . Индекс можно записать в функциональной форме и говорить о случайной функции, которая пока определена только в дискретных точках. Таким образом, случайная функция — это многомерная величина. Для задания свойств случайного процесса в общем случае необходимо определить плотность вероятности с бесконечным числом аргументов.

Для винеровского процесса ситуация существенно упрощается, так как каждое следующее определяется значением непосредственно предшествующего и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде:

(1.41)

Если известно , то будет определяться значением и случайным изменением , а не всей историей . Процессы с такой "короткой памятью" называются марковскими процессами. Они представляют собой следующее приближение после независимости случайных величин, для которых

Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например:

(1.42)

Для этого сначала записываем по определению условной вероятности. Затем используем определение для и марковское условие короткой памяти: . Таким образом, чтобы произошло , необходимо, чтобы свершилось . При условии, что это произошло, далее реализовалось , и т.д.


Многомерное распределение Гаусса << Оглавление >> Случайные процессы

Стохастический мир - простое введение в стохастические дифференциальные уравнения