Уравнения Ито — различия между версиями
WikiSysop (обсуждение | вклад) |
WikiSysop (обсуждение | вклад) |
||
(не показаны 2 промежуточные версии этого же участника) | |||
Строка 5: | Строка 5: | ||
|} | |} | ||
---- | ---- | ||
− | <math>\textstyle \bullet</math> Рассмотрим дискретную модель блуждания | + | <math>\textstyle \bullet</math> Рассмотрим [[Модель аддитивного блуждания|дискретную модель блуждания]], в которой, кроме случайных толчков <math>\textstyle \varepsilon_i</math>, на каждом шаге происходит постоянный сдвиг <math>\textstyle x</math> на величину <math>\textstyle \mu_0</math>. Через <math>\textstyle n</math> таких шагов результирующее значение <math>\textstyle x</math> будет равно: |
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> x = x_0 + \mu_0\cdot n + \sigma_0\sqrt{n}\cdot \varepsilon. </math> | | width="90%" align="center"|<math> x = x_0 + \mu_0\cdot n + \sigma_0\sqrt{n}\cdot \varepsilon. </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.1)'''</div> |
|} | |} | ||
Строка 18: | Строка 18: | ||
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> x(t)=x(t_0) + \mu\cdot (t-t_0) + \sigma \sqrt{t-t_0} \cdot \;\varepsilon. </math> | | width="90%" align="center"|<math> x(t)=x(t_0) + \mu\cdot (t-t_0) + \sigma \sqrt{t-t_0} \cdot \;\varepsilon. </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.2)'''</div> |
|} | |} | ||
В зависимости от значения случайного гауссового числа <math>\textstyle \varepsilon</math> будет получаться то или иное <math>\textstyle x</math> в момент времени <math>\textstyle t</math>. Таким образом, процесс <math>\textstyle x(t)</math> имеет нормальное распределение с максимумом, сдвигающимся со скоростью <math>\textstyle \mu</math>, и с шириной, увеличивающейся со временем пропорционально корню <math>\textstyle \sqrt{t-t_0}</math>. | В зависимости от значения случайного гауссового числа <math>\textstyle \varepsilon</math> будет получаться то или иное <math>\textstyle x</math> в момент времени <math>\textstyle t</math>. Таким образом, процесс <math>\textstyle x(t)</math> имеет нормальное распределение с максимумом, сдвигающимся со скоростью <math>\textstyle \mu</math>, и с шириной, увеличивающейся со временем пропорционально корню <math>\textstyle \sqrt{t-t_0}</math>. | ||
− | Рассмотрим теперь изменение <math>\textstyle dx=x(t)-x(t_0)</math> за бесконечно малый интервал <math>\textstyle dt=t-t_0</math>. В этом случае из () следует: | + | Рассмотрим теперь изменение <math>\textstyle dx=x(t)-x(t_0)</math> за бесконечно малый интервал <math>\textstyle dt=t-t_0</math>. В этом случае из (2.2) следует: |
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> dx \;=\; \mu \;dt +\sigma \,\delta W, </math> | | width="90%" align="center"|<math> dx \;=\; \mu \;dt +\sigma \,\delta W, </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.3)'''</div> |
|} | |} | ||
− | где введено формальное обозначение <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math>. В отличие от обычных дифференциальных уравнений вида <math>\textstyle dx=a(x,t)dt</math>, подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "<math>\textstyle \delta</math>", а не "<math>\textstyle d</math>". Процесс, подчиняющийся уравнению (), называется ''непрерывным винеровским процессом''. | + | где введено формальное обозначение <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math>. В отличие от обычных дифференциальных уравнений вида <math>\textstyle dx=a(x,t)dt</math>, подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "<math>\textstyle \delta</math>", а не "<math>\textstyle d</math>". Процесс, подчиняющийся уравнению (2.3), называется ''непрерывным винеровским процессом''. |
− | Так как мы рассматриваем предел бесконечного числа аддитивных изменений (<math>\textstyle n\to \infty</math>), то гауссовость величин <math>\textstyle \varepsilon</math> на самом деле не важна. В силу вычислений | + | Так как мы рассматриваем предел бесконечного числа аддитивных изменений (<math>\textstyle n\to \infty</math>), то гауссовость величин <math>\textstyle \varepsilon</math> на самом деле не важна. В силу вычислений раздела "[[Характеристическая функция]]", сумма большого числа независимых случайных величин окажется гауссовой величиной. Важным является факт их независимости, в результате которого возникает множитель <math>\textstyle \sqrt{t}</math> (<math>\textstyle \lessdot</math> C). |
<math>\textstyle \bullet</math> Общие процессы Ито представляют собой "''деформацию''" простого винеровского блуждания при помощи функций <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math>. Предположим, что снос <math>\textstyle \mu</math> и волатильность <math>\textstyle \sigma</math> — это функции времени <math>\textstyle t</math>, которые могут также зависеть от значения <math>\textstyle x</math>: | <math>\textstyle \bullet</math> Общие процессы Ито представляют собой "''деформацию''" простого винеровского блуждания при помощи функций <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math>. Предположим, что снос <math>\textstyle \mu</math> и волатильность <math>\textstyle \sigma</math> — это функции времени <math>\textstyle t</math>, которые могут также зависеть от значения <math>\textstyle x</math>: | ||
Строка 38: | Строка 38: | ||
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> { \;dx = a(x,t)\,dt + b(x,t)\,\delta W \; }, </math> | | width="90%" align="center"|<math> { \;dx = a(x,t)\,dt + b(x,t)\,\delta W \; }, </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.4)'''</div> |
|} | |} | ||
где <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math> — бесконечно малый винеровский "шум", а <math>\textstyle \varepsilon\sim N(0,1)</math>. Функция <math>\textstyle a(x,t)</math> называется коэффициентом ''сноса'', а <math>\textstyle b(x,t)</math> — коэффициентом ''волатильности'', квадрат которого <math>\textstyle b^2(x,t)</math> называют ''диффузией''. Локально, если функции <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math> примерно постоянны, процесс Ито — это обычное аддитивное винеровское блуждание, постепенно ''изменяющее свои свойства'' (<math>\textstyle \lessdot</math> C). | где <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math> — бесконечно малый винеровский "шум", а <math>\textstyle \varepsilon\sim N(0,1)</math>. Функция <math>\textstyle a(x,t)</math> называется коэффициентом ''сноса'', а <math>\textstyle b(x,t)</math> — коэффициентом ''волатильности'', квадрат которого <math>\textstyle b^2(x,t)</math> называют ''диффузией''. Локально, если функции <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math> примерно постоянны, процесс Ито — это обычное аддитивное винеровское блуждание, постепенно ''изменяющее свои свойства'' (<math>\textstyle \lessdot</math> C). | ||
− | <math>\textstyle \bullet</math> Уравнение Ито () позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи ''итерационной схемы'' | + | <math>\textstyle \bullet</math> Уравнение Ито (2.4) позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи ''итерационной схемы'' |
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> x_{k+1} = x_k + a(x_k, t_k)\;\Delta t + b(x_k, t_k) \;\sqrt{\Delta t} \cdot \varepsilon_k. </math> | | width="90%" align="center"|<math> x_{k+1} = x_k + a(x_k, t_k)\;\Delta t + b(x_k, t_k) \;\sqrt{\Delta t} \cdot \varepsilon_k. </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.5)'''</div> |
|} | |} | ||
Для этого выбирается малый интервал времени <math>\textstyle \Delta t</math> и начальное значение <math>\textstyle x_0</math>. Затем генерится нормально распределённое случайное число <math>\textstyle \varepsilon_1</math> и вычисляется следующее значение <math>\textstyle x_1</math>. После чего <math>\textstyle x_1</math> подставляется на место <math>\textstyle x_0</math>, время сдвигается <math>\textstyle t_1 \Rightarrow t_0+\Delta t</math>. В результате получается последовательность случайных чисел <math>\textstyle x_0</math>, <math>\textstyle x_1</math>, <math>\textstyle x_2</math>,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится ''новое'' случайное число <math>\textstyle \varepsilon_k</math>. | Для этого выбирается малый интервал времени <math>\textstyle \Delta t</math> и начальное значение <math>\textstyle x_0</math>. Затем генерится нормально распределённое случайное число <math>\textstyle \varepsilon_1</math> и вычисляется следующее значение <math>\textstyle x_1</math>. После чего <math>\textstyle x_1</math> подставляется на место <math>\textstyle x_0</math>, время сдвигается <math>\textstyle t_1 \Rightarrow t_0+\Delta t</math>. В результате получается последовательность случайных чисел <math>\textstyle x_0</math>, <math>\textstyle x_1</math>, <math>\textstyle x_2</math>,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится ''новое'' случайное число <math>\textstyle \varepsilon_k</math>. | ||
− | Сходимость итерационной процедуры () имеет одну особенность. Решая обычное дифференциальное уравнение <math>\textstyle dx = a(x,t)\,dt</math> в разностях <math>\textstyle x_{k+1}=x_k+a(x_k, t_k)\, \Delta t</math>, мы предполагаем, что при заданных начальных условиях <math>\textstyle x_0=x(t_0)</math> решение в момент времени <math>\textstyle t</math> будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага <math>\textstyle \Delta t\to 0</math>. Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал <math>\textstyle \Delta t</math> мы не выбрали, за счёт случайных чисел <math>\textstyle \varepsilon_k</math> будут получаться различные траектории <math>\textstyle x(t)</math>, удалённые друг от друга достаточно далеко. | + | Сходимость итерационной процедуры (2.5) имеет одну особенность. Решая обычное дифференциальное уравнение <math>\textstyle dx = a(x,t)\,dt</math> в разностях <math>\textstyle x_{k+1}=x_k+a(x_k, t_k)\, \Delta t</math>, мы предполагаем, что при заданных начальных условиях <math>\textstyle x_0=x(t_0)</math> решение в момент времени <math>\textstyle t</math> будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага <math>\textstyle \Delta t\to 0</math>. Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал <math>\textstyle \Delta t</math> мы не выбрали, за счёт случайных чисел <math>\textstyle \varepsilon_k</math> будут получаться различные траектории <math>\textstyle x(t)</math>, удалённые друг от друга достаточно далеко. |
− | Сходимость алгоритма () означает, что при уменьшении <math>\textstyle \Delta t</math> должны к определённому пределу стремиться среднее значение <math>\textstyle \bar{x}(t)</math>, волатильность <math>\textstyle \sigma(t)</math> и функция распределения вероятностей <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math> случайного процесса <math>\textstyle x(t)</math>. | + | Сходимость алгоритма (2.5) означает, что при уменьшении <math>\textstyle \Delta t</math> должны к определённому пределу стремиться среднее значение <math>\textstyle \bar{x}(t)</math>, волатильность <math>\textstyle \sigma(t)</math> и функция распределения вероятностей <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math> случайного процесса <math>\textstyle x(t)</math>. |
<math>\textstyle \bullet</math> Снос <math>\textstyle a(x,t)</math> и волатильность <math>\textstyle b(x,t)</math> имеют простой смысл. Если <math>\textstyle x</math> в момент времени <math>\textstyle t_0</math> равен <math>\textstyle x_0</math>, то средние значения первой и второй степени его изменения через бесконечно близкий интервал <math>\textstyle \Delta t\to 0</math> будут равны: | <math>\textstyle \bullet</math> Снос <math>\textstyle a(x,t)</math> и волатильность <math>\textstyle b(x,t)</math> имеют простой смысл. Если <math>\textstyle x</math> в момент времени <math>\textstyle t_0</math> равен <math>\textstyle x_0</math>, то средние значения первой и второй степени его изменения через бесконечно близкий интервал <math>\textstyle \Delta t\to 0</math> будут равны: | ||
Строка 60: | Строка 60: | ||
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> \frac{\left\langle x-x_0\right\rangle }{\Delta t}=a(x_0, t_0),\;\;\;\;\;\;\;\;\; \frac{\left\langle (x-x_0)^2\right\rangle }{\Delta t}=b^2(x_0, t_0), </math> | | width="90%" align="center"|<math> \frac{\left\langle x-x_0\right\rangle }{\Delta t}=a(x_0, t_0),\;\;\;\;\;\;\;\;\; \frac{\left\langle (x-x_0)^2\right\rangle }{\Delta t}=b^2(x_0, t_0), </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.6)'''</div> |
|} | |} | ||
Строка 69: | Строка 69: | ||
Моменты времени <math>\textstyle t_0</math> и <math>\textstyle t</math> явным образом указывают, когда происходит наблюдение <math>\textstyle x_0</math> и <math>\textstyle x</math>. | Моменты времени <math>\textstyle t_0</math> и <math>\textstyle t</math> явным образом указывают, когда происходит наблюдение <math>\textstyle x_0</math> и <math>\textstyle x</math>. | ||
− | Проверим, что дискретная схема Ито () приводит к (). В бесконечно близкий к <math>\textstyle t_0</math> момент времени отклонение от <math>\textstyle x_0</math> можно записать в следующем виде: | + | Проверим, что дискретная схема Ито (2.5) приводит к (2.6). В бесконечно близкий к <math>\textstyle t_0</math> момент времени отклонение от <math>\textstyle x_0</math> можно записать в следующем виде: |
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> x-x_0 = a(x_0,t_0)\cdot \Delta t + b(x_0,t_0)\sqrt{\Delta t}\cdot\varepsilon. </math> | | width="90%" align="center"|<math> x-x_0 = a(x_0,t_0)\cdot \Delta t + b(x_0,t_0)\sqrt{\Delta t}\cdot\varepsilon. </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.7)'''</div> |
|} | |} | ||
Строка 80: | Строка 80: | ||
:<center><math>\left\langle (x-x_0)^2\right\rangle = \left\langle a^2_0\;(\Delta t)^2 + 2a_0b_0 \;(\Delta t)^{3/2} \cdot \varepsilon + b_0^2\,\Delta t\cdot \varepsilon^2 \right\rangle = a^2_0\;\Delta t^2+b^2_0\,\Delta t,</math></center> | :<center><math>\left\langle (x-x_0)^2\right\rangle = \left\langle a^2_0\;(\Delta t)^2 + 2a_0b_0 \;(\Delta t)^{3/2} \cdot \varepsilon + b_0^2\,\Delta t\cdot \varepsilon^2 \right\rangle = a^2_0\;\Delta t^2+b^2_0\,\Delta t,</math></center> | ||
− | где <math>\textstyle a_0=a(x_0,t_0)</math>, <math>\textstyle b_0=b(x_0,t_0)</math>, и учтено, что <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>. Разделив на <math>\textstyle \Delta t</math> и устремив его к нулю, получим <math>\textstyle b^2(x_0,t_0)</math>. В () ''начальное условие'' <math>\textstyle x_0</math> считается заданной константой, поэтому усредняется только случайная величина <math>\textstyle \varepsilon</math>. | + | где <math>\textstyle a_0=a(x_0,t_0)</math>, <math>\textstyle b_0=b(x_0,t_0)</math>, и учтено, что <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>. Разделив на <math>\textstyle \Delta t</math> и устремив его к нулю, получим <math>\textstyle b^2(x_0,t_0)</math>. В (2.7) ''начальное условие'' <math>\textstyle x_0</math> считается заданной константой, поэтому усредняется только случайная величина <math>\textstyle \varepsilon</math>. |
− | Несложно проверить, что моменты более высоких порядков <math>\textstyle \left\langle (x-x_0)^k\right\rangle </math> в ведущем приближении пропорциональны <math>\textstyle (\Delta t)^{k/2}</math> и после деления на <math>\textstyle \Delta t</math> при <math>\textstyle k>2</math> будут стремиться к нулю. <blockquote> Класс процессов, свойства которых полностью определяются ''только'' бесконечно малыми локальными изменениями первого и второго порядка (), называются ''диффузными''. </blockquote> | + | Несложно проверить, что моменты более высоких порядков <math>\textstyle \left\langle (x-x_0)^k\right\rangle </math> в ведущем приближении пропорциональны <math>\textstyle (\Delta t)^{k/2}</math> и после деления на <math>\textstyle \Delta t</math> при <math>\textstyle k>2</math> будут стремиться к нулю. <blockquote> Класс процессов, свойства которых полностью определяются ''только'' бесконечно малыми локальными изменениями первого и второго порядка (2.6), называются ''диффузными''. </blockquote> |
− | Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние () в различные моменты времени и при различных <math>\textstyle x_0</math>. Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли <math>\textstyle \left\langle (x-x_0)^k\right\rangle /\Delta t</math> к нулю при <math>\textstyle k>2</math> и <math>\textstyle \Delta t\to 0</math>. Иногда это проще, чем восстановление из данных функции ''четырех'' аргументов <math>\textstyle P(x_0,t_0\Rightarrow x, t)</math>. | + | Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние (2.6) в различные моменты времени и при различных <math>\textstyle x_0</math>. Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли <math>\textstyle \left\langle (x-x_0)^k\right\rangle /\Delta t</math> к нулю при <math>\textstyle k>2</math> и <math>\textstyle \Delta t\to 0</math>. Иногда это проще, чем восстановление из данных функции ''четырех'' аргументов <math>\textstyle P(x_0,t_0\Rightarrow x, t)</math>. |
<math>\textstyle \bullet</math> Мы часто будем записывать ''решения'' стохастических уравнений при помощи скалярной случайной величины <math>\textstyle \varepsilon</math>. Важно чётко понимать смысл такой символики. Пусть в начальный момент времени <math>\textstyle t_0</math> нам известно, что <math>\textstyle x=x_0</math>. После этого <math>\textstyle x</math> начинает изменяться <math>\textstyle x=x(t)</math>. В каждый фиксированный момент времени <math>\textstyle t>t_0</math> величина <math>\textstyle x</math> случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому: | <math>\textstyle \bullet</math> Мы часто будем записывать ''решения'' стохастических уравнений при помощи скалярной случайной величины <math>\textstyle \varepsilon</math>. Важно чётко понимать смысл такой символики. Пусть в начальный момент времени <math>\textstyle t_0</math> нам известно, что <math>\textstyle x=x_0</math>. После этого <math>\textstyle x</math> начинает изменяться <math>\textstyle x=x(t)</math>. В каждый фиксированный момент времени <math>\textstyle t>t_0</math> величина <math>\textstyle x</math> случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому: | ||
Строка 90: | Строка 90: | ||
{| width="100%" | {| width="100%" | ||
| width="90%" align="center"|<math> x=f(x_0,t_0,\; t,\; \varepsilon) </math> | | width="90%" align="center"|<math> x=f(x_0,t_0,\; t,\; \varepsilon) </math> | ||
− | | <div width="10%" align="right" style="color:#0000CC">'''( | + | | <div width="10%" align="right" style="color:#0000CC">'''(2.8)'''</div> |
|} | |} | ||
− | означает, что случайная величина <math>\textstyle x</math> в момент времени <math>\textstyle t</math> выражается, например, через гауссову случайную переменную <math>\textstyle \varepsilon</math>, а, следовательно, плотность вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> можно получить некоторым преобразованием из нормального распределения. При помощи () легко вычисляются разнообразные средние случайного процесса, так как свойства <math>\textstyle \varepsilon</math> хорошо известны. | + | означает, что случайная величина <math>\textstyle x</math> в момент времени <math>\textstyle t</math> выражается, например, через гауссову случайную переменную <math>\textstyle \varepsilon</math>, а, следовательно, плотность вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> можно получить некоторым преобразованием из нормального распределения. При помощи (2.8) легко вычисляются разнообразные средние случайного процесса, так как свойства <math>\textstyle \varepsilon</math> хорошо известны. |
Таким образом, в произвольный фиксированный момент времени <math>\textstyle x(t)</math> — это случайная величина, свойства которой определяются при помощи <math>\textstyle \varepsilon</math> и значения <math>\textstyle t</math>. Время изменяется, и изменяются её свойства. В результате случайная величина <math>\textstyle x</math> превращается в процесс. | Таким образом, в произвольный фиксированный момент времени <math>\textstyle x(t)</math> — это случайная величина, свойства которой определяются при помощи <math>\textstyle \varepsilon</math> и значения <math>\textstyle t</math>. Время изменяется, и изменяются её свойства. В результате случайная величина <math>\textstyle x</math> превращается в процесс. | ||
− | Если мы рассматриваем другой момент времени, мы должны использовать ''другую'' случайную величину <math>\textstyle \varepsilon</math>. Пусть процесс наблюдается после <math>\textstyle t_0</math> в последовательные моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math>, тогда: | + | Если мы рассматриваем другой момент времени, мы должны использовать ''другую'' случайную величину <math>\textstyle \varepsilon</math>. Пусть процесс наблюдается после <math>\textstyle t_0</math> в последовательные моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math>, тогда: |
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> x_1=f(x_0,t_0, t_1, \varepsilon_1) </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(2.9)'''</div> | ||
+ | |} | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math>x_2=f(x_0,t_0, t_2, \varepsilon_2) = f(x_1,t_1, t_2, \varepsilon_3). </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(2.10)'''</div> | ||
+ | |} | ||
+ | |||
+ | Первое уравнение (2.9) является решением в момент времени <math>\textstyle t_1</math>. Величина <math>\textstyle x_0</math> — детерминированная константа, задаваемая начальными условиями. В противоположность ей <math>\textstyle x_1</math> — случайная величина. Её случайность определяется <math>\textstyle \varepsilon_1</math>. Первое равенство уравнения (2.10) имеет аналогичный смысл. Однако <math>\textstyle \varepsilon_2</math> — это новая случайная величина. Заметим, что она, вообще говоря, статистически зависит от <math>\textstyle \varepsilon_1</math>, так как знание значения <math>\textstyle x_1</math> (и, следовательно, <math>\textstyle \varepsilon_1</math>) даёт нам дополнительную информацию о возможных значениях <math>\textstyle x_2</math>. В частности, считая, что задано "начальное условие" <math>\textstyle x_1=x(t_1)</math>, мы можем записать второе равенство в (2.10). Величина <math>\textstyle \varepsilon_3</math> определяет "случайность" после момента времени <math>\textstyle t_1</math>, и, следовательно, она независима от <math>\textstyle \varepsilon_1</math>. Второе равенство в (2.10) имеет смысл ''функциональной связи'' между ''случайными величинами'' <math>\textstyle x_2</math> и <math>\textstyle x_1</math>, <math>\textstyle \varepsilon_3</math>. Заметим, что функция <math>\textstyle f</math> во всех соотношениях (2.9), (2.10) одна и та же, а все случайные величины <math>\textstyle \varepsilon_i</math> имеют одинаковое распределение <math>\textstyle N(0,1)</math>. | ||
---- | ---- |
Текущая версия на 18:14, 9 марта 2010
Мартингалы << | Оглавление | >> Почему Ито |
---|
Рассмотрим дискретную модель блуждания, в которой, кроме случайных толчков , на каждом шаге происходит постоянный сдвиг на величину . Через таких шагов результирующее значение будет равно:
(2.1)
|
Параметр называют "сносом" процесса. Если , то траектория постепенно (в среднем) будет сдвигаться вверх, иначе — вниз. Накопленное стохастическое изменение пропорционально гауссовой переменной с нулевым средним и единичной дисперсией.
Пусть длительность каждого шага — , и в течение времени их количество равно . Обозначим дисперсию за единицу времени через , а снос . В результате становится случайной функцией, которую можно записать в следующем виде:
(2.2)
|
В зависимости от значения случайного гауссового числа будет получаться то или иное в момент времени . Таким образом, процесс имеет нормальное распределение с максимумом, сдвигающимся со скоростью , и с шириной, увеличивающейся со временем пропорционально корню .
Рассмотрим теперь изменение за бесконечно малый интервал . В этом случае из (2.2) следует:
(2.3)
|
где введено формальное обозначение . В отличие от обычных дифференциальных уравнений вида , подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "", а не "". Процесс, подчиняющийся уравнению (2.3), называется непрерывным винеровским процессом.
Так как мы рассматриваем предел бесконечного числа аддитивных изменений (), то гауссовость величин на самом деле не важна. В силу вычислений раздела "Характеристическая функция", сумма большого числа независимых случайных величин окажется гауссовой величиной. Важным является факт их независимости, в результате которого возникает множитель ( C).
Общие процессы Ито представляют собой "деформацию" простого винеровского блуждания при помощи функций и . Предположим, что снос и волатильность — это функции времени , которые могут также зависеть от значения :
(2.4)
|
где — бесконечно малый винеровский "шум", а . Функция называется коэффициентом сноса, а — коэффициентом волатильности, квадрат которого называют диффузией. Локально, если функции и примерно постоянны, процесс Ито — это обычное аддитивное винеровское блуждание, постепенно изменяющее свои свойства ( C).
Уравнение Ито (2.4) позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи итерационной схемы
(2.5)
|
Для этого выбирается малый интервал времени и начальное значение . Затем генерится нормально распределённое случайное число и вычисляется следующее значение . После чего подставляется на место , время сдвигается . В результате получается последовательность случайных чисел , , ,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится новое случайное число .
Сходимость итерационной процедуры (2.5) имеет одну особенность. Решая обычное дифференциальное уравнение в разностях , мы предполагаем, что при заданных начальных условиях решение в момент времени будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага . Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал мы не выбрали, за счёт случайных чисел будут получаться различные траектории , удалённые друг от друга достаточно далеко.
Сходимость алгоритма (2.5) означает, что при уменьшении должны к определённому пределу стремиться среднее значение , волатильность и функция распределения вероятностей случайного процесса .
Снос и волатильность имеют простой смысл. Если в момент времени равен , то средние значения первой и второй степени его изменения через бесконечно близкий интервал будут равны:
(2.6)
|
где усреднение проводится при условии . Это утверждение означает использование условной вероятности при вычислении среднего:
Моменты времени и явным образом указывают, когда происходит наблюдение и .
Проверим, что дискретная схема Ито (2.5) приводит к (2.6). В бесконечно близкий к момент времени отклонение от можно записать в следующем виде:
(2.7)
|
Напомню, что и — это случайные величины, а в данном случае — константа начального условия. Среднее квадрата отклонения равно:
где , , и учтено, что , . Разделив на и устремив его к нулю, получим . В (2.7) начальное условие считается заданной константой, поэтому усредняется только случайная величина .
Несложно проверить, что моменты более высоких порядков в ведущем приближении пропорциональны и после деления на при будут стремиться к нулю.
Класс процессов, свойства которых полностью определяются только бесконечно малыми локальными изменениями первого и второго порядка (2.6), называются диффузными.
Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние (2.6) в различные моменты времени и при различных . Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли к нулю при и . Иногда это проще, чем восстановление из данных функции четырех аргументов .
Мы часто будем записывать решения стохастических уравнений при помощи скалярной случайной величины . Важно чётко понимать смысл такой символики. Пусть в начальный момент времени нам известно, что . После этого начинает изменяться . В каждый фиксированный момент времени величина случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому:
(2.8)
|
означает, что случайная величина в момент времени выражается, например, через гауссову случайную переменную , а, следовательно, плотность вероятности можно получить некоторым преобразованием из нормального распределения. При помощи (2.8) легко вычисляются разнообразные средние случайного процесса, так как свойства хорошо известны.
Таким образом, в произвольный фиксированный момент времени — это случайная величина, свойства которой определяются при помощи и значения . Время изменяется, и изменяются её свойства. В результате случайная величина превращается в процесс.
Если мы рассматриваем другой момент времени, мы должны использовать другую случайную величину . Пусть процесс наблюдается после в последовательные моменты времени и , тогда:
(2.9)
|
(2.10)
|
Первое уравнение (2.9) является решением в момент времени . Величина — детерминированная константа, задаваемая начальными условиями. В противоположность ей — случайная величина. Её случайность определяется . Первое равенство уравнения (2.10) имеет аналогичный смысл. Однако — это новая случайная величина. Заметим, что она, вообще говоря, статистически зависит от , так как знание значения (и, следовательно, ) даёт нам дополнительную информацию о возможных значениях . В частности, считая, что задано "начальное условие" , мы можем записать второе равенство в (2.10). Величина определяет "случайность" после момента времени , и, следовательно, она независима от . Второе равенство в (2.10) имеет смысл функциональной связи между случайными величинами и , . Заметим, что функция во всех соотношениях (2.9), (2.10) одна и та же, а все случайные величины имеют одинаковое распределение .
Мартингалы << | Оглавление | >> Почему Ито |
---|
Стохастический мир - простое введение в стохастические дифференциальные уравнения