Модель аддитивного блуждания
Многомерное распределение Гаусса << | Оглавление | >> Случайные процессы |
---|
$\bullet$ Координата броуновской частицы в воде или цена на финансовом рынке $x$ имеют траекторию с очень нерегулярными изломами. Простейшим её описанием будет модель {\it аддитивного независимого дискретного случайного блуждания}. Все четыре прилагательных в названии модели отражают базовые свойства процесса.
Предположим, что начальное значение $x=x_0$. Далее $x$ испытывает $t=1,2,...$ случайных независимых гауссовых изменений (толчков), каждое с волатильностью $\sigma$. В результате $x$ окажется равным накопленной сумме таких изменений: \begin{equation}\label{discret_winner}
x_t=x_0 + \sigma\cdot(\varepsilon_1+...+\varepsilon_t),
\end{equation} где $\varepsilon_i\sim N(0,1)$ -- гауссовы числа с нулевым средним и единичной дисперсией. Индекс $t$ пока является целым числом, однако в дальнейшем мы перейдём к пределу непрерывного времени.
Удобно ввести {\it дискретную переменную Винера}:\index{винеровская переменная} \begin{equation}\label{winer_discret}
W_t = \varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}.
\end{equation} Второе равенство мы записали, так как сумма $t$ гауссовых чисел снова равна гауссовому числу с волатильностью $\sqrt{t}$ (стр. \pageref{aver_fun_def}--\pageref{disper_eq_sum_disper}) Случайные числа, как с индексами $\varepsilon_i$, так и без них $\varepsilon$, предполагаются нормированными: $\left<\varepsilon\right>=0$, $\left<\varepsilon^2\right>=1$, т.е. как $\varepsilon\sim N(0,1)$. Модель (\ref{discret_winner}) теперь выглядит следующим образом: $x_t=x_0+\sigma\cdot W_t$.
Смоделируем такое блуждание при помощи компьютера. Начиная с $x_0=0$, будем генерить случайные числа $\varepsilon_1$, $\varepsilon_2$, ... и строить их накопленную сумму (1-й рисунок): \begin{center} \includegraphics{pic/walk_winer.eps}\\ \end{center} Так как изменения $\varepsilon_k$ будут каждый раз новыми, то по-разному будут протекать и блуждания траектории $x_t=x(t)$ (см. 2-й рисунок). Различные реализации процесса блуждания пересекают вертикальную прямую $t=const$ в тех или иных значениях $x$. Совокупность всех этих чисел является случайной величиной.
\vskip 1000mm %\newpage
Поэтому, говоря о {\it процессе} $x(t)$, мы подразумеваем, что в данный момент времени $x=x(t)$ имеет определённое распределение $P(x)$. В некоторый другой момент времени распределение может оказаться иным. Поэтому плотность вероятности $P(x,t)$, среднее $\bar{x}(t)$ и волатильность $\sigma(t)$ будут функциями времени.
Волатильность аддитивного блуждания увеличивается, как $\sqrt{t}$. Это наглядно видно на 2-м рисунке с несколькими реализациями $x_t$. Их пучок постепенно расширяется. В результате неопределённость будущего значения $x_t$ увеличивается. Мы можем обнаружить $x_t$ достаточно далеко от начального значения $x_0=0$. Это также проиллюстрировано на 3-м рисунке, где представлены плотности вероятности $P(x,t)$, которые с течением времени постепенно расплываются.
Блуждающие траектории начинаются с определённого начального значения $x_0=x(t_0)$ в момент времени $t_0$. Поэтому, говоря о вероятности, мы имеем дело с условной плотностью $P(x_0, t_0 \Rightarrow x, t)$. Пока моменты времени $t_0$ и $t$ являются целыми числами, соответствующими номеру скачка $\varepsilon_k$ на очередном этапе.
Важно понимать, что $x_t=x(t)$ не является конкретной траекторией. Это одновременная {\it совокупность} всех возможных траекторий случайного процесса. Аналогично, случайное число $x$ не подразумевает конкретного значения, а обозначает все возможные реализации, подчиняющиеся некоторому распределению $P(x)$. Вероятность получить на $t$-ом шаге $x_t$ определяется вероятностями всех изменений $\varepsilon_i$. Так, дискретный винеровский процесс $W_t$ определяется плотностью вероятности: $$
P(\varepsilon_1,...,\varepsilon_t) = P(\varepsilon_1)\cdot ...\cdot P(\varepsilon_t),
$$ где равенство отражает независимость всех $\varepsilon_i$. Таким образом, $W_t$ -- фактически, многомерная случайная величина.
Обратим ещё раз внимание на смысл записи: $\varepsilon_1+...+\varepsilon_t = \varepsilon\cdot\sqrt{t}$. Предположим, что в процессе моделирования мы генерим $t$ независимых гауссовых чисел $\varepsilon_1, \varepsilon_2,...$ и складываем их. Результат будет иметь {\it такие же статистические свойства}, как одно гауссово число $\varepsilon$ с единичной волатильностью, умноженное на фактор $\sqrt{t}$. При вычислении х свойств накопленной суммы вполне достаточно пользоваться величиной $\varepsilon$, а не полной плотностью $P(\varepsilon_1,...,\varepsilon_t)$. В частности, если мы ищем среднее значение, в котором участвует сумма гауссовых чисел, его вычисление можно упростить, используя только одно случайное число. Однако, если нас интересует связь сумм, получаемых в различные моменты времени, то необходимы некоторые ухищрения. Рассмотрим их подробнее.
\vskip 1000mm %\newpage
$\bullet$ Для сравнения процесса блуждания с самим собой в различные моменты времени его необходимо разбивать на {\it неперекрывающиеся} участки времени. Пусть процесс длится $s$ шагов, а затем еще в течение $t-s$. Сравним свойства траекторий в моменты времени $s$ и $t$ ($s<t$): $$ \begin{array}{l}
W_s= \varepsilon_1+...+\varepsilon_s,\\ W_t= \varepsilon_1+...+\varepsilon_s+\varepsilon_{s+1}+...+\varepsilon_t.\\
\end{array} $$ Вычитая уравнения, получим сумму $t-s$ случайных чисел: $$
W_t-W_s ~=~ \varepsilon_{s+1}+...+\varepsilon_t = \varepsilon\sqrt{t-s} = W_{t-s}.
$$ Второе равенство является отражением того, что суммарная волатильность $t-s$ независимых гауссовых слагаемых будет равна $\sqrt{t-s}$. Фактически, $W_s$ и $W_t$ можно представить в виде: \begin{equation}\label{sys_W_s_t} \begin{array}{l}
W_s= \varepsilon_a\, \sqrt{s}, \\ W_t= \varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s},
\end{array} \end{equation} где $\varepsilon_a$, $\varepsilon_b$, как и везде в наших лекциях, -- независимые гауссовые числа с нулевым средним и единичной дисперсией. Первое из них -- $\varepsilon_a$ -- эквивалентно накопленной сумме начальных $s$ приращений, а второе -- $\varepsilon_b$ -- соответствует {\it независимым} от $\varepsilon_a$ последующим $t-s$ приращениям.
Теперь можно найти ковариацию между $W_s$ и $W_t$. Так как $\overline{W_t}=0$, то: $$ \cov(s,t) = \left< W_sW_t\right>=\left<\varepsilon_a\, \sqrt{s} \cdot \bigl(\varepsilon_a\, \sqrt{s} + \varepsilon_b\, \sqrt{t-s}\bigr) \right> = s, $$ в силу того, что $\left<\varepsilon_a^2\right>=1$ и $\left<\varepsilon_a\varepsilon_b\right>=0$. Таким образом, ковариация зависит только от наименьшего числа $s=\min(s,t)$, представляющего собой длительность общей для $W_s$ и $W_t$ истории. Для прояснения смысла этого результата запишем регрессионную прямую (\ref{line_y_x}) между $W_s$ и $W_t$. Их волатильности равны $\sqrt{s}$ и $\sqrt{t}$, а средние -- нулю, поэтому: $$
\frac{W_t}{\sqrt{t}} = \frac{\cov(s,t)}{\sqrt{s}\sqrt{t}}\cdot \frac{W_s}{\sqrt{s}}+\frac{\xi}{\sqrt{t}}14:40, 21 января 2010 (UTC)~~
=>14:40, 21 января 2010 (UTC)~W_t=W_s+\xi. $$ Таким образом, если известно, что в момент времени $s$ сумма равна $W_s$, то наилучшим прогнозом будущего значения $W_t$ будет уже известное $W_s$. Из (\ref{sys_W_s_t}) следует, что линейная регрессионная модель оказывается в данном случае точной ($\lessdot$ C$_{\ref{c_cor_not_equal_line}}$).\label{bk_c_cor_not_equal_line} При этом её шумом выступают накопленные после момента времени $s$ изменения: $\xi=\varepsilon_{s+1}+...+\varepsilon_{t}=\varepsilon_b\sqrt{t-s}$.
Мы будем часто усреднять гауссовы величины, поэтому в качестве упражнения стоит проверить следующие соотношения ($i<j<k$): $$ \left<W_iW_jW_k\right>=0,14:40, 21 января 2010 (UTC)~~\left<W^2_iW_jW_k\right>= 2i^2+ij14:40, 21 января 2010 (UTC)~\left<W_iW^2_jW_k\right>= 3ij. $$ [Процесс $W_k$ необходимо разбить на три интервала ($\lessdot$ C$_{\ref{c_sum_gauss_cond}}$).]\label{bk_c_sum_gauss_cond} \vskip 1000mm %\newpage
$\bullet$ В заключение раздела ответим на следующий вопрос. {\it Если} $x=x_1$, то какова вероятность обнаружить его на следующем шаге в $x_2$? Очевидно, что она равна вероятности изменения $x$: $$
P(x_1 \Rightarrow x_2) = P(\varepsilon) = \frac{e^{-(x_2-x_1)^2/2}}{\sqrt{2\pi}}.
$$ Мы положили $\sigma=1$ и записали в явном виде гауссову плотность вероятности для $\varepsilon=x_2-x_1$. В результате {\it условная вероятность} зависит от обоих аргументов, поэтому случайные числа $x_1$ и $x_2$ являются зависимыми.
Дискретная траектория блуждания описывается множеством случайных величин $x_t=\{x_1,x_2,x_3,...\}$, задающих возможные значения $x$ на шаге $t$. Индекс можно записать в функциональной форме $x(t)$ и говорить о {\it случайной функции},\index{случайная!функция} которая пока определена только в дискретных точках. Таким образом, случайная функция -- это многомерная величина. Для задания свойств случайного процесса в общем случае необходимо определить плотность вероятности $P(x_1,x_2,x_3,...)$ с бесконечным числом аргументов.
Для винеровского процесса ситуация существенно упрощается, так как каждое следующее $x_{t+1}$ определяется значением непосредственно предшествующего $x_t$ и никак не зависит от более длинной предыстории. Этот факт мы будем записывать в следующем виде ($\lessdot$ C$_{\ref{c_n_cond_prob}}$): \label{bk_c_n_cond_prob} \begin{equation}\label{stat_markov_cond_prob}
P(x_1,...,x_{t} \Rightarrow x_{t+1}) ~=~ P(x_{t} \Rightarrow x_{t+1}).
\end{equation} Если известно $x_t$, то $x_{t+1}$ будет определяться значением $x_t$ и случайным изменением $\varepsilon$, а не всей историей $x_1,...,x_{t-1}$. Процессы с такой короткой памятью называются {\it марковскими процессами}.\index{марковские процессы} Они представляют собой следующее приближение после независимости случайных величин, для которых $P(x_1,...,x_{t} \Rightarrow x_{t+1})=P(x_{t+1}).$
Марковские процессы позволяют представить совместную вероятность любой размерности в виде цепочки условных вероятностей. Например: \begin{equation}\label{chain_markov}
P(x_1,x_2,x_3) = P(x_1) \cdot P(x_1 \Rightarrow x_2) \cdot P(x_2 \Rightarrow x_3).
\end{equation} Для этого сначала записываем $P(x_1,x_2, x_3)=P(x_1,x_2) \cdot P(x_1,x_2 \Rightarrow x_3)$ по определению условной вероятности. Затем используем определение для $P(x_1,x_2)=P(x_1)P(x_1\Rightarrow x_2)$ и марковское условие короткой памяти: $P(x_1,x_2\Rightarrow x_3)=P(x_2\Rightarrow x_3)$. Таким образом, чтобы произошло $x_1,x_2,x_3$, необходимо, чтобы свершилось $x_1$. {\it При условии}, что это произошло, далее реализовалось $x_2$, и т.д.
Многомерное распределение Гаусса << | Оглавление | >> Случайные процессы |
---|
Стохастический мир - простое введение в стохастические дифференциальные уравнения