Линейные многомерные модели — различия между версиями
WikiSysop (обсуждение | вклад) (Новая страница: «{| width="100%" | width="40%"|Уравнение стохастического осциллятора << ! width="20%"|[[Стохастический ми…») |
WikiSysop (обсуждение | вклад) |
||
(не показаны 4 промежуточные версии этого же участника) | |||
Строка 7: | Строка 7: | ||
+ | <math>\textstyle \bullet</math> Найдём решение линейных стохастических уравнений (по <math>\textstyle j</math> — сумма): | ||
+ | |||
+ | :<center><math>dx_i = A_{ij} \cdot (x_j- c_j)\, dt + B_{ij} \cdot \delta { W_j}.</math></center> | ||
+ | |||
+ | Постоянный вектор <math>\textstyle c_j</math> можно убрать сдвигом <math>\textstyle x_j\to x_j+c_j</math>. В решении делается обратный сдвиг. Поэтому будем изучать однородное уравнение, которое запишем в матричной форме: | ||
+ | |||
+ | :<center><math>d\mathbf{x} = \mathbf{A}\cdot \mathbf{x} \; dt + \mathbf{B}\cdot \delta \mathbf{W},</math></center> | ||
+ | |||
+ | где <math>\textstyle \mathbf{A}</math> и <math>\textstyle \mathbf{B}</math> — не зависящие от <math>\textstyle \mathbf{x}</math> и времени матрицы. | ||
+ | |||
+ | Для определения среднего проще всего сразу воспользоваться соотношением (6.16): | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \dot{\overline{\mathbf{x}}} = \mathbf{A}\cdot \overline{\mathbf{x}}\;\;\;\;\;\;=>\;\;\;\;\;\;\;\; \overline \mathbf{x} = e^{\mathbf{A} t} \cdot \mathbf{x}_0, </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.20)'''</div> | ||
+ | |} | ||
+ | |||
+ | где <math>\textstyle \mathbf{x}_0</math> — вектор начального значения. Если мы хотим "вернуть" <math>\textstyle \mathbf{c}</math>, то потребуются две замены: <math>\textstyle \overline{\mathbf{x}}\to \overline{\mathbf{x}} - \mathbf{c}</math> и <math>\textstyle \mathbf{x}_0\to \mathbf{x}_0 - \mathbf{c}</math>. | ||
+ | |||
+ | <math>\textstyle \bullet</math> Монотонная зависимость от <math>\textstyle t</math> в матричной записи решения (6.20) обманчива. Рассмотрим стохастический осциллятор из предыдущего раздела: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \begin{pmatrix} dx \\ dy \\ \end{pmatrix} = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} \cdot \begin{pmatrix} x \\ y \\ \end{pmatrix} + \sigma \cdot \begin{pmatrix} \delta W_x \\ \delta W_y \\ \end{pmatrix}. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.21)'''</div> | ||
+ | |} | ||
+ | |||
+ | В этом случае матрицу <math>\textstyle \mathbf{A}</math> можно разбить на сумму двух матриц: | ||
+ | |||
+ | :<center><math>\mathbf{A } = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} = \omega \cdot \mathbf{q} -\lambda \cdot \mathbf{1},\;\;\;\;\;\;где\;\;\;\; \mathbf{1}= \begin{pmatrix} 1 & 0 \\ 0 & 1 \\ \end{pmatrix}, \;\;\;\;\;\; \mathbf{q}= \begin{pmatrix} 0 & -1 \\ 1 & 0 \\ \end{pmatrix}.</math></center> | ||
+ | |||
+ | Несложно проверить, что: | ||
+ | |||
+ | :<center><math>\mathbf{q}^2=-\mathbf{1},\;\;\;\mathbf{q}^3=-\mathbf{q},\;\;\;\mathbf{q}^4=\mathbf{1},\;\;\;\;\mathbf{q}^5=\mathbf{q}, ...</math></center> | ||
+ | |||
+ | Так как матрицы <math>\textstyle \mathbf{1}</math> и <math>\textstyle \mathbf{q}</math> коммутируют друг с другом (<math>\textstyle \mathbf{q}\cdot \mathbf{1} = \mathbf{1}\cdot \mathbf{q} </math>), экспонента суммы разбивается на произведение <math>\textstyle e^{\mathbf{A}t}=e^{-\mathbf{1} \lambda t}\cdot e^{ \mathbf{q} \,\omega t}</math>. Раскладывая второй множитель по степеням <math>\textstyle t</math> и учитывая аналогичное разложение для синуса и косинуса, решение можно представить в следующем виде: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \begin{pmatrix} \bar{x} \\ \bar{y} \\ \end{pmatrix} = e^{-\lambda t} \cdot \begin{pmatrix} \cos \omega t & -\sin \omega t \\ \sin \omega t & \cos \omega t \\ \end{pmatrix} \begin{pmatrix} x_0 \\ y_0 \\ \end{pmatrix}. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.22)'''</div> | ||
+ | |} | ||
+ | |||
+ | Оно же выше было получено другим методом. Таким образом, "монотонная" зависимость от времени в матричных соотношениях вполне может превратиться в периодическую функцию. | ||
+ | |||
+ | <math>\textstyle \bullet</math> Найдём более практичное, чем (6.20), представление для решения линейного уравнения. Будем его искать в виде: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \mathbf{u}\, e^{at}\;\;\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{A}\cdot \mathbf{u} = a\, \mathbf{u}. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.23)'''</div> | ||
+ | |} | ||
+ | |||
+ | Постоянный вектор <math>\textstyle \mathbf{u}</math> является собственным вектором матрицы <math>\textstyle \mathbf{A}</math>, а параметр "<math>\textstyle a</math>"— её собственным значением. Перенося <math>\textstyle (a\, \mathbf{u})</math> в левую часть, получаем систему однородных уравнений относительно <math>\textstyle \mathbf{u}</math>, которая имеет ненулевое решение, только если её детерминант равен нулю: | ||
+ | |||
+ | :<center><math>\det (\mathbf{A} - a\,\mathbf{1} ) = 0.</math></center> | ||
+ | |||
+ | Это уравнение называется ''характеристическим'' и является полиномом <math>\textstyle n</math>-той степени по <math>\textstyle a</math>. Обычно оно имеет <math>\textstyle n</math> различных решений <math>\textstyle a_{1},...,a_{n}</math>. Часть из них может оказаться комплексными. Для каждого из них мы решаем уравнение (6.23) и находим собственные вектора <math>\textstyle \mathbf{u}^{(k)}</math>. Внимание! Верхний индекс — это номер собственного вектора, а не его компонента. | ||
+ | |||
+ | Теперь общее решение для среднего значения вектора переменных состояния можно записать в следующем виде: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \sum_{k} \mu_k\, \mathbf{u}^{(k)}\,e^{a_k t},\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{x}_0 = \sum_{k} \mu_k\, \mathbf{u}^{(k)}, </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.24)'''</div> | ||
+ | |} | ||
+ | |||
+ | где <math>\textstyle \mu_k</math> — произвольные константы, выражающиеся через начальные условия <math>\textstyle \mathbf{x}_0=\mathbf{x}(0)</math>. Прямой подстановкой в исходное уравнение можно проверить справедливость этого решения. Действительная часть собственных значений <math>\textstyle a_k</math> будет приводить к экспоненциально уменьшающимся (<math>\textstyle \mathbf{Re}\, a_k <0</math>) или увеличивающимся (<math>\textstyle \mathbf{Re}\, a_k >0</math>) решениям. Мнимая часть соответствует колебательным режимам. | ||
+ | |||
+ | ''Если'' матрица <math>\textstyle \mathbf{A}</math> ''симметрична'', то собственные вектора можно выбрать ортогональными: <math>\textstyle \mathbf{u}^{(\alpha)}\cdot \mathbf{u}^{*(\beta)}= \delta_{\alpha\beta}</math> (звёздочка — комплексное сопряжение). В этом случае <math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>. | ||
+ | |||
+ | Когда <math>\textstyle \mu_k</math> выражены через <math>\textstyle \mathbf{x}_0</math>, можно найти явное представление экспоненты от матрицы. Действительно, из (6.20), взяв производную по компонентам начального условия, имеем <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math>. В частности, ''если'' собственные вектора ортогональны (<math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>), то: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \left[e^{\mathbf{A} t} \right]_{\alpha\beta} = \sum_k u^{(k)}_\alpha \, u^{*(k)}_\beta \,e^{a_k t}. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.25)'''</div> | ||
+ | |} | ||
+ | |||
+ | В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти <math>\textstyle e^{\mathbf{A} t}</math> для матрицы 2x2, у которой <math>\textstyle A_{12}=A_{22}=0</math>. Необходимо это сделать прямым разложением экспоненты при помощи собственных значений. | ||
+ | |||
+ | <math>\textstyle \bullet</math> Выразим теперь решение стохастической линейной системы через гауссовы переменные. Введём новый вектор <math>\textstyle \mathbf{y}</math>, удовлетворяющий, по [[Системы стохастических уравнений|лемме Ито (6.13)]], следующему уравнению: | ||
+ | |||
+ | :<center><math>\mathbf{y} = e^{-\mathbf{A} t}\cdot \mathbf{x} \;\;\;\;\;=>\;\;\;\;\;\;d\mathbf{y} = e^{-\mathbf{A} t}\, \mathbf{B} \, \delta \mathbf{W} = \mathbf{G}(t) \, \delta \mathbf{W}.</math></center> | ||
+ | |||
+ | Матрица <math>\textstyle \mathbf{G}(t)=e^{-\mathbf{A} t}\, \mathbf{B}</math> зависит только от времени, поэтому решение этого уравнения легко найти при помощи итерационного метода: | ||
+ | |||
+ | :<center><math>y_\mu(t) = y_{\mu}(t_0) + \sum_k G_{\mu\alpha}(t_k)\varepsilon_\alpha(t_k)\sqrt{\Delta t} = y_\mu(t_0) + g_{\mu\alpha} \varepsilon_\alpha.</math></center> | ||
+ | |||
+ | Сумма независимых гауссовых чисел <math>\textstyle \varepsilon_\alpha(t_k)</math> снова пропорциональна гауссовому числу, которое удобно представить в виде суммы независимых величин <math>\textstyle \varepsilon_\alpha</math> (второе равенство). Найдём значения <math>\textstyle g_{\mu\alpha}</math>. Для этого вычислим среднее от <math>\textstyle \left\langle \bigl(y(t)-y(t_0))_\mu(y(t)-y(t_0)\bigr)_\nu\right\rangle </math>: | ||
+ | |||
+ | :<center><math>g_{\mu\alpha}g_{\nu\beta}\left\langle \varepsilon_\alpha\varepsilon_\beta\right\rangle = \sum_{k,l} G_{\mu\alpha}(t_k)G_{\nu\beta}(t_l) \left\langle \varepsilon_\alpha(t_k)\varepsilon_\beta(t_l)\right\rangle \Delta t.</math></center> | ||
+ | |||
+ | Учитывая независимость случайных величин <math>\textstyle \left\langle \varepsilon_\alpha(t_k)\varepsilon_\beta(t_l)\right\rangle =\delta_{\alpha,\beta}\delta_{k,l}</math> и <math>\textstyle \left\langle \varepsilon_\alpha\varepsilon_\beta\right\rangle =\delta_{\alpha,\beta}</math>, а также переходя к непрерывному пределу <math>\textstyle \Delta t\to 0</math>, получаем (<math>\textstyle t_0=0</math>): | ||
+ | |||
+ | :<center><math>g_{\mu\alpha}g_{\nu\alpha} = \sum_{i} G_{\mu\alpha}(t_i)G_{\nu\alpha}(t_i) \Delta t = \int\limits^t_{0} G_{\mu\alpha}(\tau)G_{\nu\alpha}(\tau)\,d\tau,</math></center> | ||
+ | |||
+ | или: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \mathbf{g}(t)\cdot \mathbf{g}^T(t) = \int\limits^t_{0} e^{-\mathbf{A} \tau}\, \mathbf{B}\, \mathbf{B}^T e^{-\mathbf{A}^T \tau} \;d\tau. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.26)'''</div> | ||
+ | |} | ||
+ | |||
+ | Напомню, что <math>\textstyle (\mathbf{A}\cdot \mathbf{B})^T = \mathbf{B}^T\cdot \mathbf{A}^T</math> (см. стр. \pageref{math_mat_tensor}). Решение для <math>\textstyle \mathbf{y}</math> запишем в матричном виде, учитывая, что <math>\textstyle \mathbf{y}_0=\mathbf{x}_0</math> при <math>\textstyle t=0</math>: | ||
+ | |||
+ | :<center><math>\mathbf{y} = \mathbf{x}_0 + \mathbf{g}(t)\cdot \mathbf{\epsilon}</math></center> | ||
+ | |||
+ | Поэтому, так как <math>\textstyle \mathbf{x}=e^{\mathbf{A} t}\, \mathbf{y}</math>, окончательное решение системы линейных стохастических уравнений имеет вид: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \mathbf{x}(t) = \bar\mathbf{x}(t) + \mathbf{S}(t) \cdot \mathbf{\epsilon}, </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.27)'''</div> | ||
+ | |} | ||
+ | |||
+ | где <math>\textstyle \mathbf{S}=e^{\mathbf{A} t}\, \mathbf{g}</math>. Вектор <math>\textstyle \epsilon=\{\varepsilon_1,...,\varepsilon_n\}</math> представляет собой набор независимых случайных чисел с гауссовым распределением, имеющим нулевое среднее и единичную дисперсию, а <math>\textstyle \bar\mathbf{x}(t)</math> — среднее значение (6.20), (6.24). В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти матрицу <math>\textstyle e^{\mathbf{A} t}</math> для двухмерного осциллятора и проверить решение (6.27). | ||
+ | |||
+ | <math>\textstyle \bullet</math> Вычислим ''матрицу дисперсий'': | ||
+ | |||
+ | :<center><math>D_{\alpha\beta} = \left\langle (x-\bar{x})_\alpha(x-\bar{x})_\beta\right\rangle = S_{\alpha i} S_{\beta j} \left\langle \varepsilon_i\varepsilon_j\right\rangle = \left[ \mathbf{S}\, \mathbf{S}^T\right]_{\alpha\beta} = \left[e^{\mathbf{A}\, t}\, \mathbf{g}\, \mathbf{g}^T \, e^{\mathbf{A}^T\, t}\right]_{\alpha\beta}.</math></center> | ||
+ | |||
+ | Учитывая (6.26), имеем: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \mathbf{D}(t) = \mathbf{S}\, \mathbf{S}^T = \int\limits^t_0 e^{\mathbf{A} (t-\tau)}\, \mathbf{B}\, \mathbf{B}^T \, e^{\mathbf{A}^T (t-\tau)} \, d\tau. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.28)'''</div> | ||
+ | |} | ||
+ | |||
+ | Это соотношение можно (<math>\textstyle \lessdot</math> H) сразу получить | ||
+ | из [[Системы стохастических уравнений|уравнения для средних (6.17)]], из которых следует матричное уравнение: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \dot \mathbf{D} = \mathbf{A}\cdot \mathbf{D} + \mathbf{D}\cdot \mathbf{A}^T + \,\mathbf{B}\cdot \mathbf{B}^T. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.29)'''</div> | ||
+ | |} | ||
+ | |||
+ | Если существует стационарный режим, то <math>\textstyle \dot\mathbf{D}=0</math> и уравнение (6.29) позволяет легко найти <math>\textstyle \mathbf{D}</math>. | ||
+ | |||
+ | <math>\textstyle \bullet</math> Распределение для <math>\textstyle x</math> имеет гауссовый вид, поэтому, зная матрицу дисперсий, можно записать марковскую плотность вероятности: | ||
+ | |||
+ | :<center><math>P(\mathbf{x}_0, 0 \Rightarrow \mathbf{x}, t) = \frac{1}{(2\pi)^{n/2}\sqrt{\det \mathbf{D}(t)}}\exp\left[-\frac{1}{2}(x-\bar{x})_\alpha \, D^{-1}_{\alpha\beta}(t) \,(x-\bar{x})_\beta\right],</math></center> | ||
+ | |||
+ | где <math>\textstyle \mathbf{D}^{-1}</math> — обратная матрица дисперсий и <math>\textstyle \bar\mathbf{x}=\bar\mathbf{x}(t)</math> — средние значения динамических переменных. Они полностью определяют свойства процесса. В частности, характеристическая функция (<math>\textstyle \lessdot</math> H): | ||
+ | |||
+ | :<center><math>\left\langle e^{\imath \,\mathbf{p}\cdot\mathbf{x}}\right\rangle = e^{\imath \,\mathbf{p}\cdot\bar\mathbf{x} - \frac{1}{2}\,\mathbf{p}\cdot\mathbf{D}\cdot\mathbf{p}}</math></center> | ||
+ | |||
+ | позволяет легко находить моменты произвольных порядков. | ||
+ | |||
+ | <math>\textstyle \bullet</math> При помощи (6.27), (6.28) несложно (<math>\textstyle \lessdot</math> H) найти ковариационную матрицу: | ||
+ | |||
+ | {| width="100%" | ||
+ | | width="90%" align="center"|<math> \mathrm{cov}\,{\alpha\beta}(t, t+\tau) = \left\langle x_\alpha(t)x_\beta(t+\tau)\right\rangle - \left\langle x_\alpha(t)\right\rangle \left\langle x_\beta(t+\tau)\right\rangle = \mathbf{D}(t) \, e^{\mathbf{A}^T\, \tau}. </math> | ||
+ | | <div width="10%" align="right" style="color:#0000CC">'''(6.30)'''</div> | ||
+ | |} | ||
+ | |||
+ | Если в пределе <math>\textstyle t\to\infty</math> у системы существует стационарный режим, то в этом случае матрица дисперсий <math>\textstyle \mathbf{D}</math> становится постоянной, а ковариация зависит только от разности времён <math>\textstyle \tau</math>. | ||
+ | |||
+ | <math>\textstyle \bullet</math> Таким образом, алгоритм решения линейной задачи следующий: | ||
+ | |||
+ | * <math>\textstyle \triangleright</math> Находим собственные значения и вектора матрицы <math>\textstyle \mathbf{A}</math>. | ||
+ | |||
+ | * <math>\textstyle \triangleright</math> Записываем решение для средних (6.24) и выражаем <math>\textstyle \mu_k</math> через <math>\textstyle \mathbf{x}_0</math>. | ||
+ | |||
+ | * <math>\textstyle \triangleright</math> При помощи соотношения <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math> находим <math>\textstyle e^{\mathbf{A} t}</math>. | ||
+ | |||
+ | * <math>\textstyle \triangleright</math> Вычисляем матрицу дисперсий <math>\textstyle D_{\alpha\beta}</math>. | ||
---- | ---- |
Текущая версия на 20:18, 15 марта 2010
Уравнение стохастического осциллятора << | Оглавление | >> Многомерие помогает одномерию |
---|
Найдём решение линейных стохастических уравнений (по — сумма):
Постоянный вектор можно убрать сдвигом . В решении делается обратный сдвиг. Поэтому будем изучать однородное уравнение, которое запишем в матричной форме:
где и — не зависящие от и времени матрицы.
Для определения среднего проще всего сразу воспользоваться соотношением (6.16):
(6.20)
|
где — вектор начального значения. Если мы хотим "вернуть" , то потребуются две замены: и .
Монотонная зависимость от в матричной записи решения (6.20) обманчива. Рассмотрим стохастический осциллятор из предыдущего раздела:
(6.21)
|
В этом случае матрицу можно разбить на сумму двух матриц:
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \mathbf{A } = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} = \omega \cdot \mathbf{q} -\lambda \cdot \mathbf{1},\;\;\;\;\;\;где\;\;\;\; \mathbf{1}= \begin{pmatrix} 1 & 0 \\ 0 & 1 \\ \end{pmatrix}, \;\;\;\;\;\; \mathbf{q}= \begin{pmatrix} 0 & -1 \\ 1 & 0 \\ \end{pmatrix}.}
Несложно проверить, что:
Так как матрицы и коммутируют друг с другом (), экспонента суммы разбивается на произведение . Раскладывая второй множитель по степеням и учитывая аналогичное разложение для синуса и косинуса, решение можно представить в следующем виде:
(6.22)
|
Оно же выше было получено другим методом. Таким образом, "монотонная" зависимость от времени в матричных соотношениях вполне может превратиться в периодическую функцию.
Найдём более практичное, чем (6.20), представление для решения линейного уравнения. Будем его искать в виде:
(6.23)
|
Постоянный вектор является собственным вектором матрицы , а параметр ""— её собственным значением. Перенося в левую часть, получаем систему однородных уравнений относительно , которая имеет ненулевое решение, только если её детерминант равен нулю:
Это уравнение называется характеристическим и является полиномом -той степени по . Обычно оно имеет различных решений . Часть из них может оказаться комплексными. Для каждого из них мы решаем уравнение (6.23) и находим собственные вектора . Внимание! Верхний индекс — это номер собственного вектора, а не его компонента.
Теперь общее решение для среднего значения вектора переменных состояния можно записать в следующем виде:
(6.24)
|
где — произвольные константы, выражающиеся через начальные условия . Прямой подстановкой в исходное уравнение можно проверить справедливость этого решения. Действительная часть собственных значений будет приводить к экспоненциально уменьшающимся () или увеличивающимся () решениям. Мнимая часть соответствует колебательным режимам.
Если матрица симметрична, то собственные вектора можно выбрать ортогональными: (звёздочка — комплексное сопряжение). В этом случае .
Когда выражены через , можно найти явное представление экспоненты от матрицы. Действительно, из (6.20), взяв производную по компонентам начального условия, имеем . В частности, если собственные вектора ортогональны (), то:
(6.25)
|
В качестве упражнения ( H) предлагается найти для матрицы 2x2, у которой . Необходимо это сделать прямым разложением экспоненты при помощи собственных значений.
Выразим теперь решение стохастической линейной системы через гауссовы переменные. Введём новый вектор , удовлетворяющий, по лемме Ито (6.13), следующему уравнению:
Матрица зависит только от времени, поэтому решение этого уравнения легко найти при помощи итерационного метода:
Сумма независимых гауссовых чисел снова пропорциональна гауссовому числу, которое удобно представить в виде суммы независимых величин (второе равенство). Найдём значения . Для этого вычислим среднее от :
Учитывая независимость случайных величин и , а также переходя к непрерывному пределу , получаем ():
или:
(6.26)
|
Напомню, что (см. стр. \pageref{math_mat_tensor}). Решение для запишем в матричном виде, учитывая, что при :
Поэтому, так как , окончательное решение системы линейных стохастических уравнений имеет вид:
(6.27)
|
где . Вектор представляет собой набор независимых случайных чисел с гауссовым распределением, имеющим нулевое среднее и единичную дисперсию, а — среднее значение (6.20), (6.24). В качестве упражнения ( H) предлагается найти матрицу для двухмерного осциллятора и проверить решение (6.27).
Вычислим матрицу дисперсий:
Учитывая (6.26), имеем:
(6.28)
|
Это соотношение можно ( H) сразу получить из уравнения для средних (6.17), из которых следует матричное уравнение:
(6.29)
|
Если существует стационарный режим, то и уравнение (6.29) позволяет легко найти .
Распределение для имеет гауссовый вид, поэтому, зная матрицу дисперсий, можно записать марковскую плотность вероятности:
где — обратная матрица дисперсий и — средние значения динамических переменных. Они полностью определяют свойства процесса. В частности, характеристическая функция ( H):
позволяет легко находить моменты произвольных порядков.
При помощи (6.27), (6.28) несложно ( H) найти ковариационную матрицу:
(6.30)
|
Если в пределе у системы существует стационарный режим, то в этом случае матрица дисперсий становится постоянной, а ковариация зависит только от разности времён .
Таким образом, алгоритм решения линейной задачи следующий:
- Находим собственные значения и вектора матрицы .
- Записываем решение для средних (6.24) и выражаем через .
- При помощи соотношения находим .
- Вычисляем матрицу дисперсий .
Уравнение стохастического осциллятора << | Оглавление | >> Многомерие помогает одномерию |
---|
Стохастический мир - простое введение в стохастические дифференциальные уравнения