Уравнения Ито — различия между версиями

Материал из synset
Перейти к: навигация, поиск
 
(не показано 7 промежуточных версий этого же участника)
Строка 2: Строка 2:
 
  | width="40%"|[[Мартингалы]] <<  
 
  | width="40%"|[[Мартингалы]] <<  
 
  ! width="20%"|[[Стохастический мир|Оглавление]]  
 
  ! width="20%"|[[Стохастический мир|Оглавление]]  
  | width="40%" align="right"| >> [[Лемма Ито]]
+
  | width="40%" align="right"| >> [[Почему Ито ]]
 
|}
 
|}
 
----
 
----
 
<math>\textstyle \bullet</math> Рассмотрим [[Модель аддитивного блуждания|дискретную модель блуждания]], в которой, кроме случайных толчков <math>\textstyle \varepsilon_i</math>, на каждом шаге происходит постоянный сдвиг <math>\textstyle x</math> на величину <math>\textstyle \mu_0</math>. Через <math>\textstyle n</math> таких шагов результирующее значение <math>\textstyle x</math> будет равно:
 
<math>\textstyle \bullet</math> Рассмотрим [[Модель аддитивного блуждания|дискретную модель блуждания]], в которой, кроме случайных толчков <math>\textstyle \varepsilon_i</math>, на каждом шаге происходит постоянный сдвиг <math>\textstyle x</math> на величину <math>\textstyle \mu_0</math>. Через <math>\textstyle n</math> таких шагов результирующее значение <math>\textstyle x</math> будет равно:
  
:<center><math> x = x_0 + \mu_0\cdot n + \sigma_0\sqrt{n}\cdot \varepsilon. </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x = x_0 + \mu_0\cdot n + \sigma_0\sqrt{n}\cdot \varepsilon. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.1)'''</div>
 +
|}
  
 
Параметр <math>\textstyle \mu_0</math> называют "''сносом''" процесса. Если <math>\textstyle \mu_0>0</math>, то траектория постепенно (в среднем) будет сдвигаться вверх, иначе &mdash; вниз. Накопленное стохастическое изменение <math>\textstyle \varepsilon_1+...+\varepsilon_n=\varepsilon\,\sqrt{n}</math> пропорционально гауссовой переменной <math>\textstyle \varepsilon\sim N(0,1)</math> с нулевым средним и единичной дисперсией.
 
Параметр <math>\textstyle \mu_0</math> называют "''сносом''" процесса. Если <math>\textstyle \mu_0>0</math>, то траектория постепенно (в среднем) будет сдвигаться вверх, иначе &mdash; вниз. Накопленное стохастическое изменение <math>\textstyle \varepsilon_1+...+\varepsilon_n=\varepsilon\,\sqrt{n}</math> пропорционально гауссовой переменной <math>\textstyle \varepsilon\sim N(0,1)</math> с нулевым средним и единичной дисперсией.
Строка 13: Строка 16:
 
Пусть длительность каждого шага &mdash; <math>\textstyle \Delta t</math>, и в течение времени <math>\textstyle t-t_0</math> их количество равно <math>\textstyle n=(t-t_0)/\Delta t</math>. Обозначим дисперсию за единицу времени через <math>\textstyle \sigma^2=\sigma^2_0/\Delta t</math>, а снос <math>\textstyle \mu=\mu_0/\Delta t</math>. В результате <math>\textstyle x</math> становится случайной функцией, которую можно записать в следующем виде:
 
Пусть длительность каждого шага &mdash; <math>\textstyle \Delta t</math>, и в течение времени <math>\textstyle t-t_0</math> их количество равно <math>\textstyle n=(t-t_0)/\Delta t</math>. Обозначим дисперсию за единицу времени через <math>\textstyle \sigma^2=\sigma^2_0/\Delta t</math>, а снос <math>\textstyle \mu=\mu_0/\Delta t</math>. В результате <math>\textstyle x</math> становится случайной функцией, которую можно записать в следующем виде:
  
:<center><math> x(t)=x(t_0) + \mu\cdot (t-t_0) + \sigma \sqrt{t-t_0} \cdot \;\varepsilon. </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x(t)=x(t_0) + \mu\cdot (t-t_0) + \sigma \sqrt{t-t_0} \cdot \;\varepsilon. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.2)'''</div>
 +
|}
  
 
В зависимости от значения случайного гауссового числа <math>\textstyle \varepsilon</math> будет получаться то или иное <math>\textstyle x</math> в момент времени <math>\textstyle t</math>. Таким образом, процесс <math>\textstyle x(t)</math> имеет нормальное распределение с максимумом, сдвигающимся со скоростью <math>\textstyle \mu</math>, и с шириной, увеличивающейся со временем пропорционально корню <math>\textstyle \sqrt{t-t_0}</math>.
 
В зависимости от значения случайного гауссового числа <math>\textstyle \varepsilon</math> будет получаться то или иное <math>\textstyle x</math> в момент времени <math>\textstyle t</math>. Таким образом, процесс <math>\textstyle x(t)</math> имеет нормальное распределение с максимумом, сдвигающимся со скоростью <math>\textstyle \mu</math>, и с шириной, увеличивающейся со временем пропорционально корню <math>\textstyle \sqrt{t-t_0}</math>.
  
Рассмотрим теперь изменение <math>\textstyle dx=x(t)-x(t_0)</math> за бесконечно малый интервал <math>\textstyle dt=t-t_0</math>. В этом случае из () следует:
+
Рассмотрим теперь изменение <math>\textstyle dx=x(t)-x(t_0)</math> за бесконечно малый интервал <math>\textstyle dt=t-t_0</math>. В этом случае из (2.2) следует:
  
:<center><math> dx \;=\; \mu \;dt +\sigma \,\delta W, </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> dx \;=\; \mu \;dt +\sigma \,\delta W, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.3)'''</div>
 +
|}
  
где введено формальное обозначение <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math>. В отличие от обычных дифференциальных уравнений вида <math>\textstyle dx=a(x,t)dt</math>, подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "<math>\textstyle \delta</math>", а не "<math>\textstyle d</math>". Процесс, подчиняющийся уравнению (), называется ''непрерывным винеровским процессом''.
+
где введено формальное обозначение <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math>. В отличие от обычных дифференциальных уравнений вида <math>\textstyle dx=a(x,t)dt</math>, подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "<math>\textstyle \delta</math>", а не "<math>\textstyle d</math>". Процесс, подчиняющийся уравнению (2.3), называется ''непрерывным винеровским процессом''.
  
Так как мы рассматриваем предел бесконечного числа аддитивных изменений (<math>\textstyle n\to \infty</math>), то гауссовость величин <math>\textstyle \varepsilon</math> на самом деле не важна. В силу предельной теоремы сумма большого числа независимых случайных величин окажется гауссовой величиной. Важным является факт их независимости, в результате которого возникает множитель <math>\textstyle \sqrt{t}</math> (<math>\textstyle \lessdot</math> C).
+
Так как мы рассматриваем предел бесконечного числа аддитивных изменений (<math>\textstyle n\to \infty</math>), то гауссовость величин <math>\textstyle \varepsilon</math> на самом деле не важна. В силу вычислений раздела "[[Характеристическая функция]]", сумма большого числа независимых случайных величин окажется гауссовой величиной. Важным является факт их независимости, в результате которого возникает множитель <math>\textstyle \sqrt{t}</math> (<math>\textstyle \lessdot</math> C).
  
 
<math>\textstyle \bullet</math> Общие процессы Ито представляют собой "''деформацию''" простого винеровского блуждания при помощи функций <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math>. Предположим, что снос <math>\textstyle \mu</math> и волатильность <math>\textstyle \sigma</math> &mdash; это функции времени <math>\textstyle t</math>, которые могут также зависеть от значения <math>\textstyle x</math>:
 
<math>\textstyle \bullet</math> Общие процессы Ито представляют собой "''деформацию''" простого винеровского блуждания при помощи функций <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math>. Предположим, что снос <math>\textstyle \mu</math> и волатильность <math>\textstyle \sigma</math> &mdash; это функции времени <math>\textstyle t</math>, которые могут также зависеть от значения <math>\textstyle x</math>:
  
:<center><math> { \;dx = a(x,t)\,dt + b(x,t)\,\delta W \; }, </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> { \;dx = a(x,t)\,dt + b(x,t)\,\delta W \; }, </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.4)'''</div>
 +
|}
  
 
где <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math> &mdash; бесконечно малый винеровский "шум", а <math>\textstyle \varepsilon\sim N(0,1)</math>. Функция <math>\textstyle a(x,t)</math> называется коэффициентом ''сноса'', а <math>\textstyle b(x,t)</math> &mdash; коэффициентом ''волатильности'', квадрат которого <math>\textstyle b^2(x,t)</math> называют ''диффузией''. Локально, если функции <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math> примерно постоянны, процесс Ито &mdash; это обычное аддитивное винеровское блуждание, постепенно ''изменяющее свои свойства'' (<math>\textstyle \lessdot</math> C).
 
где <math>\textstyle \delta W = \varepsilon \sqrt{dt}</math> &mdash; бесконечно малый винеровский "шум", а <math>\textstyle \varepsilon\sim N(0,1)</math>. Функция <math>\textstyle a(x,t)</math> называется коэффициентом ''сноса'', а <math>\textstyle b(x,t)</math> &mdash; коэффициентом ''волатильности'', квадрат которого <math>\textstyle b^2(x,t)</math> называют ''диффузией''. Локально, если функции <math>\textstyle a(x,t)</math> и <math>\textstyle b(x,t)</math> примерно постоянны, процесс Ито &mdash; это обычное аддитивное винеровское блуждание, постепенно ''изменяющее свои свойства'' (<math>\textstyle \lessdot</math> C).
  
<math>\textstyle \bullet</math> Уравнение Ито () позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи ''итерационной схемы''
+
<math>\textstyle \bullet</math> Уравнение Ито (2.4) позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи ''итерационной схемы''
  
:<center><math> x_{k+1} = x_k + a(x_k, t_k)\;\Delta t + b(x_k, t_k) \;\sqrt{\Delta t} \cdot \varepsilon_k. </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x_{k+1} = x_k + a(x_k, t_k)\;\Delta t + b(x_k, t_k) \;\sqrt{\Delta t} \cdot \varepsilon_k. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.5)'''</div>
 +
|}
  
 
Для этого выбирается малый интервал времени <math>\textstyle \Delta t</math> и начальное значение <math>\textstyle x_0</math>. Затем генерится нормально распределённое случайное число <math>\textstyle \varepsilon_1</math> и вычисляется следующее значение <math>\textstyle x_1</math>. После чего <math>\textstyle x_1</math> подставляется на место <math>\textstyle x_0</math>, время сдвигается <math>\textstyle t_1 \Rightarrow t_0+\Delta t</math>. В результате получается последовательность случайных чисел <math>\textstyle x_0</math>, <math>\textstyle x_1</math>, <math>\textstyle x_2</math>,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится ''новое'' случайное число <math>\textstyle \varepsilon_k</math>.
 
Для этого выбирается малый интервал времени <math>\textstyle \Delta t</math> и начальное значение <math>\textstyle x_0</math>. Затем генерится нормально распределённое случайное число <math>\textstyle \varepsilon_1</math> и вычисляется следующее значение <math>\textstyle x_1</math>. После чего <math>\textstyle x_1</math> подставляется на место <math>\textstyle x_0</math>, время сдвигается <math>\textstyle t_1 \Rightarrow t_0+\Delta t</math>. В результате получается последовательность случайных чисел <math>\textstyle x_0</math>, <math>\textstyle x_1</math>, <math>\textstyle x_2</math>,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится ''новое'' случайное число <math>\textstyle \varepsilon_k</math>.
  
Сходимость итерационной процедуры () имеет одну особенность. Решая обычное дифференциальное уравнение <math>\textstyle dx = a(x,t)\,dt</math> в разностях <math>\textstyle x_{k+1}=x_k+a(x_k, t_k)\, \Delta t</math>, мы предполагаем, что при заданных начальных условиях <math>\textstyle x_0=x(t_0)</math> решение в момент времени <math>\textstyle t</math> будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага <math>\textstyle \Delta t\to 0</math>. Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал <math>\textstyle \Delta t</math> мы не выбрали, за счёт случайных чисел <math>\textstyle \varepsilon_k</math> будут получаться различные траектории <math>\textstyle x(t)</math>, удалённые друг от друга достаточно далеко.
+
Сходимость итерационной процедуры (2.5) имеет одну особенность. Решая обычное дифференциальное уравнение <math>\textstyle dx = a(x,t)\,dt</math> в разностях <math>\textstyle x_{k+1}=x_k+a(x_k, t_k)\, \Delta t</math>, мы предполагаем, что при заданных начальных условиях <math>\textstyle x_0=x(t_0)</math> решение в момент времени <math>\textstyle t</math> будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага <math>\textstyle \Delta t\to 0</math>. Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал <math>\textstyle \Delta t</math> мы не выбрали, за счёт случайных чисел <math>\textstyle \varepsilon_k</math> будут получаться различные траектории <math>\textstyle x(t)</math>, удалённые друг от друга достаточно далеко.
  
Сходимость алгоритма () означает, что при уменьшении <math>\textstyle \Delta t</math> должны к определённому пределу стремиться среднее значение <math>\textstyle \bar{x}(t)</math>, волатильность <math>\textstyle \sigma(t)</math> и функция распределения вероятностей <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math> случайного процесса <math>\textstyle x(t)</math>.
+
Сходимость алгоритма (2.5) означает, что при уменьшении <math>\textstyle \Delta t</math> должны к определённому пределу стремиться среднее значение <math>\textstyle \bar{x}(t)</math>, волатильность <math>\textstyle \sigma(t)</math> и функция распределения вероятностей <math>\textstyle P(x_0, t_0\Rightarrow x,t)</math> случайного процесса <math>\textstyle x(t)</math>.
  
 
<math>\textstyle \bullet</math> Снос <math>\textstyle a(x,t)</math> и волатильность <math>\textstyle b(x,t)</math> имеют простой смысл. Если <math>\textstyle x</math> в момент времени <math>\textstyle t_0</math> равен <math>\textstyle x_0</math>, то средние значения первой и второй степени его изменения через бесконечно близкий интервал <math>\textstyle \Delta t\to 0</math> будут равны:
 
<math>\textstyle \bullet</math> Снос <math>\textstyle a(x,t)</math> и волатильность <math>\textstyle b(x,t)</math> имеют простой смысл. Если <math>\textstyle x</math> в момент времени <math>\textstyle t_0</math> равен <math>\textstyle x_0</math>, то средние значения первой и второй степени его изменения через бесконечно близкий интервал <math>\textstyle \Delta t\to 0</math> будут равны:
  
:<center><math> \frac{\left\langle x-x_0\right\rangle }{\Delta t}=a(x_0, t_0),\;\;\;\;\;\;\;\;\; \frac{\left\langle (x-x_0)^2\right\rangle }{\Delta t}=b^2(x_0, t_0), </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> \frac{\left\langle x-x_0\right\rangle }{\Delta t}=a(x_0, t_0),\;\;\;\;\;\;\;\;\; \frac{\left\langle (x-x_0)^2\right\rangle }{\Delta t}=b^2(x_0, t_0), </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.6)'''</div>
 +
|}
  
 
где усреднение проводится ''при условии'' <math>\textstyle x_0=x(t_0)</math>. Это утверждение означает использование условной вероятности при вычислении среднего:
 
где усреднение проводится ''при условии'' <math>\textstyle x_0=x(t_0)</math>. Это утверждение означает использование условной вероятности при вычислении среднего:
Строка 51: Строка 69:
 
Моменты времени <math>\textstyle t_0</math> и <math>\textstyle t</math> явным образом указывают, когда происходит наблюдение <math>\textstyle x_0</math> и <math>\textstyle x</math>.
 
Моменты времени <math>\textstyle t_0</math> и <math>\textstyle t</math> явным образом указывают, когда происходит наблюдение <math>\textstyle x_0</math> и <math>\textstyle x</math>.
  
Проверим, что дискретная схема Ито () приводит к (). В бесконечно близкий к <math>\textstyle t_0</math> момент времени отклонение от <math>\textstyle x_0</math> можно записать в следующем виде:
+
Проверим, что дискретная схема Ито (2.5) приводит к (2.6). В бесконечно близкий к <math>\textstyle t_0</math> момент времени отклонение от <math>\textstyle x_0</math> можно записать в следующем виде:
  
:<center><math> x-x_0 = a(x_0,t_0)\cdot \Delta t + b(x_0,t_0)\sqrt{\Delta t}\cdot\varepsilon. </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x-x_0 = a(x_0,t_0)\cdot \Delta t + b(x_0,t_0)\sqrt{\Delta t}\cdot\varepsilon. </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.7)'''</div>
 +
|}
  
 
Напомню, что <math>\textstyle x</math> и <math>\textstyle \varepsilon</math> &mdash; это случайные величины, а <math>\textstyle x_0</math> в данном случае &mdash; константа начального условия. Среднее квадрата отклонения равно:
 
Напомню, что <math>\textstyle x</math> и <math>\textstyle \varepsilon</math> &mdash; это случайные величины, а <math>\textstyle x_0</math> в данном случае &mdash; константа начального условия. Среднее квадрата отклонения равно:
Строка 59: Строка 80:
 
:<center><math>\left\langle (x-x_0)^2\right\rangle = \left\langle a^2_0\;(\Delta t)^2 + 2a_0b_0 \;(\Delta t)^{3/2} \cdot \varepsilon + b_0^2\,\Delta t\cdot \varepsilon^2 \right\rangle = a^2_0\;\Delta t^2+b^2_0\,\Delta t,</math></center>
 
:<center><math>\left\langle (x-x_0)^2\right\rangle = \left\langle a^2_0\;(\Delta t)^2 + 2a_0b_0 \;(\Delta t)^{3/2} \cdot \varepsilon + b_0^2\,\Delta t\cdot \varepsilon^2 \right\rangle = a^2_0\;\Delta t^2+b^2_0\,\Delta t,</math></center>
  
где <math>\textstyle a_0=a(x_0,t_0)</math>, <math>\textstyle b_0=b(x_0,t_0)</math>, и учтено, что <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>. Разделив на <math>\textstyle \Delta t</math> и устремив его к нулю, получим <math>\textstyle b^2(x_0,t_0)</math>. В () ''начальное условие'' <math>\textstyle x_0</math> считается заданной константой, поэтому усредняется только случайная величина <math>\textstyle \varepsilon</math>.
+
где <math>\textstyle a_0=a(x_0,t_0)</math>, <math>\textstyle b_0=b(x_0,t_0)</math>, и учтено, что <math>\textstyle \left\langle \varepsilon\right\rangle =0</math>, <math>\textstyle \left\langle \varepsilon^2\right\rangle =1</math>. Разделив на <math>\textstyle \Delta t</math> и устремив его к нулю, получим <math>\textstyle b^2(x_0,t_0)</math>. В (2.7) ''начальное условие'' <math>\textstyle x_0</math> считается заданной константой, поэтому усредняется только случайная величина <math>\textstyle \varepsilon</math>.
  
Несложно проверить, что моменты более высоких порядков <math>\textstyle \left\langle (x-x_0)^k\right\rangle </math> в ведущем приближении пропорциональны <math>\textstyle (\Delta t)^{k/2}</math> и после деления на <math>\textstyle \Delta t</math> при <math>\textstyle k>2</math> будут стремиться к нулю. <blockquote> Класс процессов, свойства которых полностью определяются ''только'' бесконечно малыми локальными изменениями первого и второго порядка (), называются ''диффузными''. </blockquote>
+
Несложно проверить, что моменты более высоких порядков <math>\textstyle \left\langle (x-x_0)^k\right\rangle </math> в ведущем приближении пропорциональны <math>\textstyle (\Delta t)^{k/2}</math> и после деления на <math>\textstyle \Delta t</math> при <math>\textstyle k>2</math> будут стремиться к нулю. <blockquote> Класс процессов, свойства которых полностью определяются ''только'' бесконечно малыми локальными изменениями первого и второго порядка (2.6), называются ''диффузными''. </blockquote>
  
Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние () в различные моменты времени и при различных <math>\textstyle x_0</math>. Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли <math>\textstyle \left\langle (x-x_0)^k\right\rangle /\Delta t</math> к нулю при <math>\textstyle k>2</math> и <math>\textstyle \Delta t\to 0</math>. Иногда это проще, чем восстановление из данных функции ''четырех'' аргументов <math>\textstyle P(x_0,t_0\Rightarrow x, t)</math>.
+
Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние (2.6) в различные моменты времени и при различных <math>\textstyle x_0</math>. Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли <math>\textstyle \left\langle (x-x_0)^k\right\rangle /\Delta t</math> к нулю при <math>\textstyle k>2</math> и <math>\textstyle \Delta t\to 0</math>. Иногда это проще, чем восстановление из данных функции ''четырех'' аргументов <math>\textstyle P(x_0,t_0\Rightarrow x, t)</math>.
  
 
<math>\textstyle \bullet</math> Мы часто будем записывать ''решения'' стохастических уравнений при помощи скалярной случайной величины <math>\textstyle \varepsilon</math>. Важно чётко понимать смысл такой символики. Пусть в начальный момент времени <math>\textstyle t_0</math> нам известно, что <math>\textstyle x=x_0</math>. После этого <math>\textstyle x</math> начинает изменяться <math>\textstyle x=x(t)</math>. В каждый фиксированный момент времени <math>\textstyle t>t_0</math> величина <math>\textstyle x</math> случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому:
 
<math>\textstyle \bullet</math> Мы часто будем записывать ''решения'' стохастических уравнений при помощи скалярной случайной величины <math>\textstyle \varepsilon</math>. Важно чётко понимать смысл такой символики. Пусть в начальный момент времени <math>\textstyle t_0</math> нам известно, что <math>\textstyle x=x_0</math>. После этого <math>\textstyle x</math> начинает изменяться <math>\textstyle x=x(t)</math>. В каждый фиксированный момент времени <math>\textstyle t>t_0</math> величина <math>\textstyle x</math> случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому:
  
:<center><math> x=f(x_0,t_0,\; t,\; \varepsilon) </math></center>
+
{| width="100%"
 +
| width="90%" align="center"|<math> x=f(x_0,t_0,\; t,\; \varepsilon) </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.8)'''</div>
 +
|}
  
означает, что случайная величина <math>\textstyle x</math> в момент времени <math>\textstyle t</math> выражается, например, через гауссову случайную переменную <math>\textstyle \varepsilon</math>, а, следовательно, плотность вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> можно получить некоторым преобразованием из нормального распределения. При помощи () легко вычисляются разнообразные средние случайного процесса, так как свойства <math>\textstyle \varepsilon</math> хорошо известны.
+
означает, что случайная величина <math>\textstyle x</math> в момент времени <math>\textstyle t</math> выражается, например, через гауссову случайную переменную <math>\textstyle \varepsilon</math>, а, следовательно, плотность вероятности <math>\textstyle P(x_0, t_0 \Rightarrow x, t)</math> можно получить некоторым преобразованием из нормального распределения. При помощи (2.8) легко вычисляются разнообразные средние случайного процесса, так как свойства <math>\textstyle \varepsilon</math> хорошо известны.
  
 
Таким образом, в произвольный фиксированный момент времени <math>\textstyle x(t)</math> &mdash; это случайная величина, свойства которой определяются при помощи <math>\textstyle \varepsilon</math> и значения <math>\textstyle t</math>. Время изменяется, и изменяются её свойства. В результате случайная величина <math>\textstyle x</math> превращается в процесс.
 
Таким образом, в произвольный фиксированный момент времени <math>\textstyle x(t)</math> &mdash; это случайная величина, свойства которой определяются при помощи <math>\textstyle \varepsilon</math> и значения <math>\textstyle t</math>. Время изменяется, и изменяются её свойства. В результате случайная величина <math>\textstyle x</math> превращается в процесс.
  
Если мы рассматриваем другой момент времени, мы должны использовать ''другую'' случайную величину <math>\textstyle \varepsilon</math>. Пусть процесс наблюдается после <math>\textstyle t_0</math> в последовательные моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math>, тогда: \begin{eqnarray} x_1&=&f(x_0,t_0, t_1, \varepsilon_1) \\ x_2&=&f(x_0,t_0, t_2, \varepsilon_2) = f(x_1,t_1, t_2, \varepsilon_3) . \end{eqnarray} Первое уравнение () является решением в момент времени <math>\textstyle t_1</math>. Величина <math>\textstyle x_0</math> &mdash; детерминированная константа, задаваемая начальными условиями. В противоположность ей <math>\textstyle x_1</math> &mdash; случайная величина. Её случайность определяется <math>\textstyle \varepsilon_1</math>. Первое равенство уравнения () имеет аналогичный смысл. Однако <math>\textstyle \varepsilon_2</math> &mdash; это новая случайная величина. Заметим, что она, вообще говоря, статистически зависит от <math>\textstyle \varepsilon_1</math>, так как знание значения <math>\textstyle x_1</math> (и, следовательно, <math>\textstyle \varepsilon_1</math>) даёт нам дополнительную информацию о возможных значениях <math>\textstyle x_2</math>. В частности, считая, что задано "начальное условие" <math>\textstyle x_1=x(t_1)</math>, мы можем записать второе равенство в (). Величина <math>\textstyle \varepsilon_3</math> определяет "случайность" после момента времени <math>\textstyle t_1</math>, и, следовательно, она независима от <math>\textstyle \varepsilon_1</math>. Второе равенство в () имеет смысл ''функциональной связи'' между ''случайными величинами'' <math>\textstyle x_2</math> и <math>\textstyle x_1</math>, <math>\textstyle \varepsilon_3</math>. Заметим, что функция <math>\textstyle f</math> во всех соотношениях (), () одна и та же, а все случайные величины <math>\textstyle \varepsilon_i</math> имеют одинаковое распределение <math>\textstyle N(0,1)</math>.
+
Если мы рассматриваем другой момент времени, мы должны использовать ''другую'' случайную величину <math>\textstyle \varepsilon</math>. Пусть процесс наблюдается после <math>\textstyle t_0</math> в последовательные моменты времени <math>\textstyle t_1</math> и <math>\textstyle t_2</math>, тогда:  
 +
 
 +
{| width="100%"
 +
| width="90%" align="center"|<math> x_1=f(x_0,t_0, t_1, \varepsilon_1) </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.9)'''</div>
 +
|}
 +
 
 +
{| width="100%"
 +
| width="90%" align="center"|<math>x_2=f(x_0,t_0, t_2, \varepsilon_2) = f(x_1,t_1, t_2, \varepsilon_3). </math>
 +
| <div width="10%" align="right" style="color:#0000CC">'''(2.10)'''</div>
 +
|}
 +
 
 +
Первое уравнение (2.9) является решением в момент времени <math>\textstyle t_1</math>. Величина <math>\textstyle x_0</math> &mdash; детерминированная константа, задаваемая начальными условиями. В противоположность ей <math>\textstyle x_1</math> &mdash; случайная величина. Её случайность определяется <math>\textstyle \varepsilon_1</math>. Первое равенство уравнения (2.10) имеет аналогичный смысл. Однако <math>\textstyle \varepsilon_2</math> &mdash; это новая случайная величина. Заметим, что она, вообще говоря, статистически зависит от <math>\textstyle \varepsilon_1</math>, так как знание значения <math>\textstyle x_1</math> (и, следовательно, <math>\textstyle \varepsilon_1</math>) даёт нам дополнительную информацию о возможных значениях <math>\textstyle x_2</math>. В частности, считая, что задано "начальное условие" <math>\textstyle x_1=x(t_1)</math>, мы можем записать второе равенство в (2.10). Величина <math>\textstyle \varepsilon_3</math> определяет "случайность" после момента времени <math>\textstyle t_1</math>, и, следовательно, она независима от <math>\textstyle \varepsilon_1</math>. Второе равенство в (2.10) имеет смысл ''функциональной связи'' между ''случайными величинами'' <math>\textstyle x_2</math> и <math>\textstyle x_1</math>, <math>\textstyle \varepsilon_3</math>. Заметим, что функция <math>\textstyle f</math> во всех соотношениях (2.9), (2.10) одна и та же, а все случайные величины <math>\textstyle \varepsilon_i</math> имеют одинаковое распределение <math>\textstyle N(0,1)</math>.
  
 
----
 
----
Строка 79: Строка 115:
 
  | width="40%"|[[Мартингалы]] <<  
 
  | width="40%"|[[Мартингалы]] <<  
 
  ! width="20%"|[[Стохастический мир|Оглавление]]  
 
  ! width="20%"|[[Стохастический мир|Оглавление]]  
  | width="40%" align="right"| >> [[Лемма Ито]]
+
  | width="40%" align="right"| >> [[Почему Ито ]]
 
|}
 
|}
 
----
 
----
 
[[Стохастический мир]] - простое введение в стохастические дифференциальные уравнения
 
[[Стохастический мир]] - простое введение в стохастические дифференциальные уравнения

Текущая версия на 18:14, 9 марта 2010

Мартингалы << Оглавление >> Почему Ито

Рассмотрим дискретную модель блуждания, в которой, кроме случайных толчков , на каждом шаге происходит постоянный сдвиг на величину . Через таких шагов результирующее значение будет равно:

(2.1)

Параметр называют "сносом" процесса. Если , то траектория постепенно (в среднем) будет сдвигаться вверх, иначе — вниз. Накопленное стохастическое изменение пропорционально гауссовой переменной с нулевым средним и единичной дисперсией.

Пусть длительность каждого шага — , и в течение времени их количество равно . Обозначим дисперсию за единицу времени через , а снос . В результате становится случайной функцией, которую можно записать в следующем виде:

(2.2)

В зависимости от значения случайного гауссового числа будет получаться то или иное в момент времени . Таким образом, процесс имеет нормальное распределение с максимумом, сдвигающимся со скоростью , и с шириной, увеличивающейся со временем пропорционально корню .

Рассмотрим теперь изменение за бесконечно малый интервал . В этом случае из (2.2) следует:

(2.3)

где введено формальное обозначение . В отличие от обычных дифференциальных уравнений вида , подобное уравнение содержит бесконечно малое изменение по времени в степени 1/2. Чтобы подчеркнуть эту необычность, мы используем символ "", а не "". Процесс, подчиняющийся уравнению (2.3), называется непрерывным винеровским процессом.

Так как мы рассматриваем предел бесконечного числа аддитивных изменений (), то гауссовость величин на самом деле не важна. В силу вычислений раздела "Характеристическая функция", сумма большого числа независимых случайных величин окажется гауссовой величиной. Важным является факт их независимости, в результате которого возникает множитель ( C).

Общие процессы Ито представляют собой "деформацию" простого винеровского блуждания при помощи функций и . Предположим, что снос и волатильность — это функции времени , которые могут также зависеть от значения :

(2.4)

где — бесконечно малый винеровский "шум", а . Функция называется коэффициентом сноса, а — коэффициентом волатильности, квадрат которого называют диффузией. Локально, если функции и примерно постоянны, процесс Ито — это обычное аддитивное винеровское блуждание, постепенно изменяющее свои свойства ( C).

Уравнение Ито (2.4) позволяет легко моделировать временную динамику произвольного стохастического процесса при помощи итерационной схемы

(2.5)

Для этого выбирается малый интервал времени и начальное значение . Затем генерится нормально распределённое случайное число и вычисляется следующее значение . После чего подставляется на место , время сдвигается . В результате получается последовательность случайных чисел , , ,... Соответствующий график имеет характерную фрактальную изломанность, типичную для динамики цен финансовых инструментов или блуждающей броуновской частицы. Заметим, что на каждой итерации генерится новое случайное число .

Сходимость итерационной процедуры (2.5) имеет одну особенность. Решая обычное дифференциальное уравнение в разностях , мы предполагаем, что при заданных начальных условиях решение в момент времени будет получаться примерно одно и то же, стремясь к некоторому пределу при уменьшении временного шага . Однако для стохастических уравнений это абсолютно не так! Какой бы малый интервал мы не выбрали, за счёт случайных чисел будут получаться различные траектории , удалённые друг от друга достаточно далеко.

Сходимость алгоритма (2.5) означает, что при уменьшении должны к определённому пределу стремиться среднее значение , волатильность и функция распределения вероятностей случайного процесса .

Снос и волатильность имеют простой смысл. Если в момент времени равен , то средние значения первой и второй степени его изменения через бесконечно близкий интервал будут равны:

(2.6)

где усреднение проводится при условии . Это утверждение означает использование условной вероятности при вычислении среднего:

Моменты времени и явным образом указывают, когда происходит наблюдение и .

Проверим, что дискретная схема Ито (2.5) приводит к (2.6). В бесконечно близкий к момент времени отклонение от можно записать в следующем виде:

(2.7)

Напомню, что и — это случайные величины, а в данном случае — константа начального условия. Среднее квадрата отклонения равно:

где , , и учтено, что , . Разделив на и устремив его к нулю, получим . В (2.7) начальное условие считается заданной константой, поэтому усредняется только случайная величина .

Несложно проверить, что моменты более высоких порядков в ведущем приближении пропорциональны и после деления на при будут стремиться к нулю.

Класс процессов, свойства которых полностью определяются только бесконечно малыми локальными изменениями первого и второго порядка (2.6), называются диффузными.

Чтобы определить динамическое стохастическое уравнение для того или иного эмпирического процесса, можно вычислить средние (2.6) в различные моменты времени и при различных . Кроме этого, необходимо обязательно проверить, является ли процесс диффузным, т.е. стремятся ли к нулю при и . Иногда это проще, чем восстановление из данных функции четырех аргументов .

Мы часто будем записывать решения стохастических уравнений при помощи скалярной случайной величины . Важно чётко понимать смысл такой символики. Пусть в начальный момент времени нам известно, что . После этого начинает изменяться . В каждый фиксированный момент времени величина случайна. При помощи того или иного функционального преобразования можно выразить случайную величину с одним распределением через случайную величину с другим. Поэтому:

(2.8)

означает, что случайная величина в момент времени выражается, например, через гауссову случайную переменную , а, следовательно, плотность вероятности можно получить некоторым преобразованием из нормального распределения. При помощи (2.8) легко вычисляются разнообразные средние случайного процесса, так как свойства хорошо известны.

Таким образом, в произвольный фиксированный момент времени — это случайная величина, свойства которой определяются при помощи и значения . Время изменяется, и изменяются её свойства. В результате случайная величина превращается в процесс.

Если мы рассматриваем другой момент времени, мы должны использовать другую случайную величину . Пусть процесс наблюдается после в последовательные моменты времени и , тогда:

(2.9)
(2.10)

Первое уравнение (2.9) является решением в момент времени . Величина — детерминированная константа, задаваемая начальными условиями. В противоположность ей — случайная величина. Её случайность определяется . Первое равенство уравнения (2.10) имеет аналогичный смысл. Однако — это новая случайная величина. Заметим, что она, вообще говоря, статистически зависит от , так как знание значения (и, следовательно, ) даёт нам дополнительную информацию о возможных значениях . В частности, считая, что задано "начальное условие" , мы можем записать второе равенство в (2.10). Величина определяет "случайность" после момента времени , и, следовательно, она независима от . Второе равенство в (2.10) имеет смысл функциональной связи между случайными величинами и , . Заметим, что функция во всех соотношениях (2.9), (2.10) одна и та же, а все случайные величины имеют одинаковое распределение .


Мартингалы << Оглавление >> Почему Ито

Стохастический мир - простое введение в стохастические дифференциальные уравнения