Линейные многомерные модели — различия между версиями

Материал из synset
Перейти к: навигация, поиск
 
(не показаны 2 промежуточные версии этого же участника)
Строка 17: Строка 17:
 
где <math>\textstyle \mathbf{A}</math> и <math>\textstyle \mathbf{B}</math> &mdash; не зависящие от <math>\textstyle \mathbf{x}</math> и времени матрицы.
 
где <math>\textstyle \mathbf{A}</math> и <math>\textstyle \mathbf{B}</math> &mdash; не зависящие от <math>\textstyle \mathbf{x}</math> и времени матрицы.
  
Для определения среднего проще всего сразу воспользоваться соотношением ():
+
Для определения среднего проще всего сразу воспользоваться соотношением (6.16):
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \dot{\overline{\mathbf{x}}} = \mathbf{A}\cdot \overline{\mathbf{x}}\;\;\;\;\;\;=>\;\;\;\;\;\;\;\; \overline \mathbf{x} = e^{\mathbf{A} t} \cdot \mathbf{x}_0, </math>
 
  | width="90%" align="center"|<math> \dot{\overline{\mathbf{x}}} = \mathbf{A}\cdot \overline{\mathbf{x}}\;\;\;\;\;\;=>\;\;\;\;\;\;\;\; \overline \mathbf{x} = e^{\mathbf{A} t} \cdot \mathbf{x}_0, </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.20)'''</div>
 
  |}
 
  |}
  
 
где <math>\textstyle \mathbf{x}_0</math> &mdash; вектор начального значения. Если мы хотим "вернуть" <math>\textstyle \mathbf{c}</math>, то потребуются две замены: <math>\textstyle \overline{\mathbf{x}}\to \overline{\mathbf{x}} - \mathbf{c}</math> и <math>\textstyle \mathbf{x}_0\to \mathbf{x}_0 - \mathbf{c}</math>.
 
где <math>\textstyle \mathbf{x}_0</math> &mdash; вектор начального значения. Если мы хотим "вернуть" <math>\textstyle \mathbf{c}</math>, то потребуются две замены: <math>\textstyle \overline{\mathbf{x}}\to \overline{\mathbf{x}} - \mathbf{c}</math> и <math>\textstyle \mathbf{x}_0\to \mathbf{x}_0 - \mathbf{c}</math>.
  
<math>\textstyle \bullet</math> Монотонная зависимость от <math>\textstyle t</math> в матричной записи решения () обманчива. Рассмотрим стохастический осциллятор из предыдущего раздела:
+
<math>\textstyle \bullet</math> Монотонная зависимость от <math>\textstyle t</math> в матричной записи решения (6.20) обманчива. Рассмотрим стохастический осциллятор из предыдущего раздела:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \begin{pmatrix} dx \\ dy \\ \end{pmatrix} = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} \cdot \begin{pmatrix} x \\ y \\ \end{pmatrix} + \sigma \cdot \begin{pmatrix} \delta W_x \\ \delta W_y \\ \end{pmatrix}. </math>
 
  | width="90%" align="center"|<math> \begin{pmatrix} dx \\ dy \\ \end{pmatrix} = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} \cdot \begin{pmatrix} x \\ y \\ \end{pmatrix} + \sigma \cdot \begin{pmatrix} \delta W_x \\ \delta W_y \\ \end{pmatrix}. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.21)'''</div>
 
  |}
 
  |}
  
Строка 45: Строка 45:
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \begin{pmatrix} \bar{x} \\ \bar{y} \\ \end{pmatrix} = e^{-\lambda t} \cdot \begin{pmatrix} \cos \omega t & -\sin \omega t \\ \sin \omega t & \cos \omega t \\ \end{pmatrix} \begin{pmatrix} x_0 \\ y_0 \\ \end{pmatrix}. </math>
 
  | width="90%" align="center"|<math> \begin{pmatrix} \bar{x} \\ \bar{y} \\ \end{pmatrix} = e^{-\lambda t} \cdot \begin{pmatrix} \cos \omega t & -\sin \omega t \\ \sin \omega t & \cos \omega t \\ \end{pmatrix} \begin{pmatrix} x_0 \\ y_0 \\ \end{pmatrix}. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.22)'''</div>
 
  |}
 
  |}
  
 
Оно же выше было получено другим методом. Таким образом, "монотонная" зависимость от времени в матричных соотношениях вполне может превратиться в периодическую функцию.
 
Оно же выше было получено другим методом. Таким образом, "монотонная" зависимость от времени в матричных соотношениях вполне может превратиться в периодическую функцию.
  
<math>\textstyle \bullet</math> Найдём более практичное, чем (), представление для решения линейного уравнения. Будем его искать в виде:
+
<math>\textstyle \bullet</math> Найдём более практичное, чем (6.20), представление для решения линейного уравнения. Будем его искать в виде:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \mathbf{u}\, e^{at}\;\;\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{A}\cdot \mathbf{u} = a\, \mathbf{u}. </math>
 
  | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \mathbf{u}\, e^{at}\;\;\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{A}\cdot \mathbf{u} = a\, \mathbf{u}. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.23)'''</div>
 
  |}
 
  |}
  
Строка 61: Строка 61:
 
:<center><math>\det (\mathbf{A} - a\,\mathbf{1} ) = 0.</math></center>
 
:<center><math>\det (\mathbf{A} - a\,\mathbf{1} ) = 0.</math></center>
  
Это уравнение называется ''характеристическим'' и является полиномом <math>\textstyle n</math>-той степени по <math>\textstyle a</math>. Обычно оно имеет <math>\textstyle n</math> различных решений <math>\textstyle a_{1},...,a_{n}</math>. Часть из них может оказаться комплексными. Для каждого из них мы решаем уравнение () и находим собственные вектора <math>\textstyle \mathbf{u}^{(k)}</math>. Внимание! Верхний индекс &mdash; это номер собственного вектора, а не его компонента.
+
Это уравнение называется ''характеристическим'' и является полиномом <math>\textstyle n</math>-той степени по <math>\textstyle a</math>. Обычно оно имеет <math>\textstyle n</math> различных решений <math>\textstyle a_{1},...,a_{n}</math>. Часть из них может оказаться комплексными. Для каждого из них мы решаем уравнение (6.23) и находим собственные вектора <math>\textstyle \mathbf{u}^{(k)}</math>. Внимание! Верхний индекс &mdash; это номер собственного вектора, а не его компонента.
  
 
Теперь общее решение для среднего значения вектора переменных состояния можно записать в следующем виде:
 
Теперь общее решение для среднего значения вектора переменных состояния можно записать в следующем виде:
Строка 67: Строка 67:
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \sum_{k} \mu_k\, \mathbf{u}^{(k)}\,e^{a_k t},\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{x}_0 = \sum_{k} \mu_k\, \mathbf{u}^{(k)}, </math>
 
  | width="90%" align="center"|<math> \overline{\mathbf{x}}(t) = \sum_{k} \mu_k\, \mathbf{u}^{(k)}\,e^{a_k t},\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{x}_0 = \sum_{k} \mu_k\, \mathbf{u}^{(k)}, </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.24)'''</div>
 
  |}
 
  |}
  
Строка 74: Строка 74:
 
''Если'' матрица <math>\textstyle \mathbf{A}</math> ''симметрична'', то собственные вектора можно выбрать ортогональными: <math>\textstyle \mathbf{u}^{(\alpha)}\cdot \mathbf{u}^{*(\beta)}= \delta_{\alpha\beta}</math> (звёздочка &mdash; комплексное сопряжение). В этом случае <math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>.
 
''Если'' матрица <math>\textstyle \mathbf{A}</math> ''симметрична'', то собственные вектора можно выбрать ортогональными: <math>\textstyle \mathbf{u}^{(\alpha)}\cdot \mathbf{u}^{*(\beta)}= \delta_{\alpha\beta}</math> (звёздочка &mdash; комплексное сопряжение). В этом случае <math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>.
  
Когда <math>\textstyle \mu_k</math> выражены через <math>\textstyle \mathbf{x}_0</math>, можно найти явное представление экспоненты от матрицы. Действительно, из (), взяв производную по компонентам начального условия, имеем <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math>. В частности, ''если'' собственные вектора ортогональны (<math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>), то:
+
Когда <math>\textstyle \mu_k</math> выражены через <math>\textstyle \mathbf{x}_0</math>, можно найти явное представление экспоненты от матрицы. Действительно, из (6.20), взяв производную по компонентам начального условия, имеем <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math>. В частности, ''если'' собственные вектора ортогональны (<math>\textstyle \mu_k=\mathbf{x}_0\cdot \mathbf{u}^{*(k)}</math>), то:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \left[e^{\mathbf{A} t} \right]_{\alpha\beta} = \sum_k u^{(k)}_\alpha \, u^{*(k)}_\beta \,e^{a_k t}. </math>
 
  | width="90%" align="center"|<math> \left[e^{\mathbf{A} t} \right]_{\alpha\beta} = \sum_k u^{(k)}_\alpha \, u^{*(k)}_\beta \,e^{a_k t}. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.25)'''</div>
 
  |}
 
  |}
  
 
В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти <math>\textstyle e^{\mathbf{A} t}</math> для матрицы 2x2, у которой <math>\textstyle A_{12}=A_{22}=0</math>. Необходимо это сделать прямым разложением экспоненты при помощи собственных значений.
 
В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти <math>\textstyle e^{\mathbf{A} t}</math> для матрицы 2x2, у которой <math>\textstyle A_{12}=A_{22}=0</math>. Необходимо это сделать прямым разложением экспоненты при помощи собственных значений.
  
<math>\textstyle \bullet</math> Выразим теперь решение стохастической линейной системы через гауссовы переменные. Введём новый вектор <math>\textstyle \mathbf{y}</math>, удовлетворяющий, по лемме Ито (), стр. \pageref{Ito_N_dim_mat}, следующему уравнению:
+
<math>\textstyle \bullet</math> Выразим теперь решение стохастической линейной системы через гауссовы переменные. Введём новый вектор <math>\textstyle \mathbf{y}</math>, удовлетворяющий, по [[Системы стохастических уравнений|лемме Ито (6.13)]], следующему уравнению:
  
 
:<center><math>\mathbf{y} = e^{-\mathbf{A} t}\cdot \mathbf{x} \;\;\;\;\;=>\;\;\;\;\;\;d\mathbf{y} = e^{-\mathbf{A} t}\, \mathbf{B} \, \delta \mathbf{W} = \mathbf{G}(t) \, \delta \mathbf{W}.</math></center>
 
:<center><math>\mathbf{y} = e^{-\mathbf{A} t}\cdot \mathbf{x} \;\;\;\;\;=>\;\;\;\;\;\;d\mathbf{y} = e^{-\mathbf{A} t}\, \mathbf{B} \, \delta \mathbf{W} = \mathbf{G}(t) \, \delta \mathbf{W}.</math></center>
Строка 103: Строка 103:
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \mathbf{g}(t)\cdot \mathbf{g}^T(t) = \int\limits^t_{0} e^{-\mathbf{A} \tau}\, \mathbf{B}\, \mathbf{B}^T e^{-\mathbf{A}^T \tau} \;d\tau. </math>
 
  | width="90%" align="center"|<math> \mathbf{g}(t)\cdot \mathbf{g}^T(t) = \int\limits^t_{0} e^{-\mathbf{A} \tau}\, \mathbf{B}\, \mathbf{B}^T e^{-\mathbf{A}^T \tau} \;d\tau. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.26)'''</div>
 
  |}
 
  |}
  
Строка 114: Строка 114:
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \mathbf{x}(t) = \bar\mathbf{x}(t) + \mathbf{S}(t) \cdot \mathbf{\epsilon}, </math>
 
  | width="90%" align="center"|<math> \mathbf{x}(t) = \bar\mathbf{x}(t) + \mathbf{S}(t) \cdot \mathbf{\epsilon}, </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.27)'''</div>
 
  |}
 
  |}
  
где <math>\textstyle \mathbf{S}=e^{\mathbf{A} t}\, \mathbf{g}</math>. Вектор <math>\textstyle \epsilon=\{\varepsilon_1,...,\varepsilon_n\}</math> представляет собой набор независимых случайных чисел с гауссовым распределением, имеющим нулевое среднее и единичную дисперсию, а <math>\textstyle \bar\mathbf{x}(t)</math> &mdash; среднее значение (), (). В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти матрицу <math>\textstyle e^{\mathbf{A} t}</math> для двухмерного осциллятора и проверить решение ().
+
где <math>\textstyle \mathbf{S}=e^{\mathbf{A} t}\, \mathbf{g}</math>. Вектор <math>\textstyle \epsilon=\{\varepsilon_1,...,\varepsilon_n\}</math> представляет собой набор независимых случайных чисел с гауссовым распределением, имеющим нулевое среднее и единичную дисперсию, а <math>\textstyle \bar\mathbf{x}(t)</math> &mdash; среднее значение (6.20), (6.24). В качестве упражнения (<math>\textstyle \lessdot</math> H) предлагается найти матрицу <math>\textstyle e^{\mathbf{A} t}</math> для двухмерного осциллятора и проверить решение (6.27).
  
 
<math>\textstyle \bullet</math> Вычислим ''матрицу дисперсий'':
 
<math>\textstyle \bullet</math> Вычислим ''матрицу дисперсий'':
Строка 123: Строка 123:
 
:<center><math>D_{\alpha\beta} = \left\langle (x-\bar{x})_\alpha(x-\bar{x})_\beta\right\rangle = S_{\alpha i} S_{\beta j} \left\langle \varepsilon_i\varepsilon_j\right\rangle = \left[ \mathbf{S}\, \mathbf{S}^T\right]_{\alpha\beta} = \left[e^{\mathbf{A}\, t}\, \mathbf{g}\, \mathbf{g}^T \, e^{\mathbf{A}^T\, t}\right]_{\alpha\beta}.</math></center>
 
:<center><math>D_{\alpha\beta} = \left\langle (x-\bar{x})_\alpha(x-\bar{x})_\beta\right\rangle = S_{\alpha i} S_{\beta j} \left\langle \varepsilon_i\varepsilon_j\right\rangle = \left[ \mathbf{S}\, \mathbf{S}^T\right]_{\alpha\beta} = \left[e^{\mathbf{A}\, t}\, \mathbf{g}\, \mathbf{g}^T \, e^{\mathbf{A}^T\, t}\right]_{\alpha\beta}.</math></center>
  
Учитывая (), имеем:
+
Учитывая (6.26), имеем:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \mathbf{D}(t) = \mathbf{S}\, \mathbf{S}^T = \int\limits^t_0 e^{\mathbf{A} (t-\tau)}\, \mathbf{B}\, \mathbf{B}^T \, e^{\mathbf{A}^T (t-\tau)} \, d\tau. </math>
 
  | width="90%" align="center"|<math> \mathbf{D}(t) = \mathbf{S}\, \mathbf{S}^T = \int\limits^t_0 e^{\mathbf{A} (t-\tau)}\, \mathbf{B}\, \mathbf{B}^T \, e^{\mathbf{A}^T (t-\tau)} \, d\tau. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.28)'''</div>
 
  |}
 
  |}
  
Это соотношение можно (<math>\textstyle \lessdot</math> H) сразу получить из уравнения для средних (), стр. \pageref{aver_F_n_dim_for_xx}, из которых следует матричное уравнение:
+
Это соотношение можно (<math>\textstyle \lessdot</math> H) сразу получить  
 +
из [[Системы стохастических уравнений|уравнения для средних (6.17)]], из которых следует матричное уравнение:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \dot \mathbf{D} = \mathbf{A}\cdot \mathbf{D} + \mathbf{D}\cdot \mathbf{A}^T + \,\mathbf{B}\cdot \mathbf{B}^T. </math>
 
  | width="90%" align="center"|<math> \dot \mathbf{D} = \mathbf{A}\cdot \mathbf{D} + \mathbf{D}\cdot \mathbf{A}^T + \,\mathbf{B}\cdot \mathbf{B}^T. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.29)'''</div>
 
  |}
 
  |}
  
Если существует стационарный режим, то <math>\textstyle \dot\mathbf{D}=0</math> и уравнение () позволяет легко найти <math>\textstyle \mathbf{D}</math>.
+
Если существует стационарный режим, то <math>\textstyle \dot\mathbf{D}=0</math> и уравнение (6.29) позволяет легко найти <math>\textstyle \mathbf{D}</math>.
  
 
<math>\textstyle \bullet</math> Распределение для <math>\textstyle x</math> имеет гауссовый вид, поэтому, зная матрицу дисперсий, можно записать марковскую плотность вероятности:
 
<math>\textstyle \bullet</math> Распределение для <math>\textstyle x</math> имеет гауссовый вид, поэтому, зная матрицу дисперсий, можно записать марковскую плотность вероятности:
Строка 149: Строка 150:
 
позволяет легко находить моменты произвольных порядков.
 
позволяет легко находить моменты произвольных порядков.
  
<math>\textstyle \bullet</math> При помощи (), () несложно (<math>\textstyle \lessdot</math> H) найти ковариационную матрицу:
+
<math>\textstyle \bullet</math> При помощи (6.27), (6.28) несложно (<math>\textstyle \lessdot</math> H) найти ковариационную матрицу:
  
 
{| width="100%"  
 
{| width="100%"  
 
  | width="90%" align="center"|<math> \mathrm{cov}\,{\alpha\beta}(t, t+\tau) = \left\langle x_\alpha(t)x_\beta(t+\tau)\right\rangle - \left\langle x_\alpha(t)\right\rangle \left\langle x_\beta(t+\tau)\right\rangle = \mathbf{D}(t) \, e^{\mathbf{A}^T\, \tau}. </math>
 
  | width="90%" align="center"|<math> \mathrm{cov}\,{\alpha\beta}(t, t+\tau) = \left\langle x_\alpha(t)x_\beta(t+\tau)\right\rangle - \left\langle x_\alpha(t)\right\rangle \left\langle x_\beta(t+\tau)\right\rangle = \mathbf{D}(t) \, e^{\mathbf{A}^T\, \tau}. </math>
  | <div width="10%" align="right" style="color:#0000CC">'''(EQN)'''</div>
+
  | <div width="10%" align="right" style="color:#0000CC">'''(6.30)'''</div>
 
  |}
 
  |}
  
 
Если в пределе <math>\textstyle t\to\infty</math> у системы существует стационарный режим, то в этом случае матрица дисперсий <math>\textstyle \mathbf{D}</math> становится постоянной, а ковариация зависит только от разности времён <math>\textstyle \tau</math>.
 
Если в пределе <math>\textstyle t\to\infty</math> у системы существует стационарный режим, то в этом случае матрица дисперсий <math>\textstyle \mathbf{D}</math> становится постоянной, а ковариация зависит только от разности времён <math>\textstyle \tau</math>.
  
<math>\textstyle \bullet</math> Таким образом, алгоритм решения линейной задачи следующий:\\ <math>\textstyle \triangleright</math> Находим собственные значения и вектора матрицы <math>\textstyle \mathbf{A}</math>.\\ <math>\textstyle \triangleright</math> Записываем решение для средних () и выражаем <math>\textstyle \mu_k</math> через <math>\textstyle \mathbf{x}_0</math>.\\ <math>\textstyle \triangleright</math> При помощи соотношения <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math> находим <math>\textstyle e^{\mathbf{A} t}</math>.\\ <math>\textstyle \triangleright</math> Вычисляем матрицу дисперсий <math>\textstyle D_{\alpha\beta}</math>. \\
+
<math>\textstyle \bullet</math> Таким образом, алгоритм решения линейной задачи следующий:
 +
 
 +
* <math>\textstyle \triangleright</math> Находим собственные значения и вектора матрицы <math>\textstyle \mathbf{A}</math>.
 +
 
 +
* <math>\textstyle \triangleright</math> Записываем решение для средних (6.24) и выражаем <math>\textstyle \mu_k</math> через <math>\textstyle \mathbf{x}_0</math>.
 +
 
 +
* <math>\textstyle \triangleright</math> При помощи соотношения <math>\textstyle \left[e^{\mathbf{A} t}\right]_{\alpha\beta}=\partial \overline{x}_\alpha/x_{0\beta}</math> находим <math>\textstyle e^{\mathbf{A} t}</math>.
 +
 
 +
* <math>\textstyle \triangleright</math> Вычисляем матрицу дисперсий <math>\textstyle D_{\alpha\beta}</math>.  
  
 
----
 
----

Текущая версия на 20:18, 15 марта 2010

Уравнение стохастического осциллятора << Оглавление >> Многомерие помогает одномерию


Найдём решение линейных стохастических уравнений (по — сумма):

Постоянный вектор можно убрать сдвигом . В решении делается обратный сдвиг. Поэтому будем изучать однородное уравнение, которое запишем в матричной форме:

где и — не зависящие от и времени матрицы.

Для определения среднего проще всего сразу воспользоваться соотношением (6.16):

(6.20)

где — вектор начального значения. Если мы хотим "вернуть" , то потребуются две замены: и .

Монотонная зависимость от в матричной записи решения (6.20) обманчива. Рассмотрим стохастический осциллятор из предыдущего раздела:

(6.21)

В этом случае матрицу можно разбить на сумму двух матриц:

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \mathbf{A } = \begin{pmatrix} -\lambda & -\omega \\ \omega & -\lambda \\ \end{pmatrix} = \omega \cdot \mathbf{q} -\lambda \cdot \mathbf{1},\;\;\;\;\;\;где\;\;\;\; \mathbf{1}= \begin{pmatrix} 1 & 0 \\ 0 & 1 \\ \end{pmatrix}, \;\;\;\;\;\; \mathbf{q}= \begin{pmatrix} 0 & -1 \\ 1 & 0 \\ \end{pmatrix}.}

Несложно проверить, что:

Так как матрицы и коммутируют друг с другом (), экспонента суммы разбивается на произведение . Раскладывая второй множитель по степеням и учитывая аналогичное разложение для синуса и косинуса, решение можно представить в следующем виде:

(6.22)

Оно же выше было получено другим методом. Таким образом, "монотонная" зависимость от времени в матричных соотношениях вполне может превратиться в периодическую функцию.

Найдём более практичное, чем (6.20), представление для решения линейного уравнения. Будем его искать в виде:

(6.23)

Постоянный вектор является собственным вектором матрицы , а параметр ""— её собственным значением. Перенося в левую часть, получаем систему однородных уравнений относительно , которая имеет ненулевое решение, только если её детерминант равен нулю:

Это уравнение называется характеристическим и является полиномом -той степени по . Обычно оно имеет различных решений . Часть из них может оказаться комплексными. Для каждого из них мы решаем уравнение (6.23) и находим собственные вектора . Внимание! Верхний индекс — это номер собственного вектора, а не его компонента.

Теперь общее решение для среднего значения вектора переменных состояния можно записать в следующем виде:

(6.24)

где — произвольные константы, выражающиеся через начальные условия . Прямой подстановкой в исходное уравнение можно проверить справедливость этого решения. Действительная часть собственных значений будет приводить к экспоненциально уменьшающимся () или увеличивающимся () решениям. Мнимая часть соответствует колебательным режимам.

Если матрица симметрична, то собственные вектора можно выбрать ортогональными: (звёздочка — комплексное сопряжение). В этом случае .

Когда выражены через , можно найти явное представление экспоненты от матрицы. Действительно, из (6.20), взяв производную по компонентам начального условия, имеем . В частности, если собственные вектора ортогональны (), то:

(6.25)

В качестве упражнения ( H) предлагается найти для матрицы 2x2, у которой . Необходимо это сделать прямым разложением экспоненты при помощи собственных значений.

Выразим теперь решение стохастической линейной системы через гауссовы переменные. Введём новый вектор , удовлетворяющий, по лемме Ито (6.13), следующему уравнению:

Матрица зависит только от времени, поэтому решение этого уравнения легко найти при помощи итерационного метода:

Сумма независимых гауссовых чисел снова пропорциональна гауссовому числу, которое удобно представить в виде суммы независимых величин (второе равенство). Найдём значения . Для этого вычислим среднее от :

Учитывая независимость случайных величин и , а также переходя к непрерывному пределу , получаем ():

или:

(6.26)

Напомню, что (см. стр. \pageref{math_mat_tensor}). Решение для запишем в матричном виде, учитывая, что при :

Поэтому, так как , окончательное решение системы линейных стохастических уравнений имеет вид:

(6.27)

где . Вектор представляет собой набор независимых случайных чисел с гауссовым распределением, имеющим нулевое среднее и единичную дисперсию, а — среднее значение (6.20), (6.24). В качестве упражнения ( H) предлагается найти матрицу для двухмерного осциллятора и проверить решение (6.27).

Вычислим матрицу дисперсий:

Учитывая (6.26), имеем:

(6.28)

Это соотношение можно ( H) сразу получить из уравнения для средних (6.17), из которых следует матричное уравнение:

(6.29)

Если существует стационарный режим, то и уравнение (6.29) позволяет легко найти .

Распределение для имеет гауссовый вид, поэтому, зная матрицу дисперсий, можно записать марковскую плотность вероятности:

где — обратная матрица дисперсий и — средние значения динамических переменных. Они полностью определяют свойства процесса. В частности, характеристическая функция ( H):

позволяет легко находить моменты произвольных порядков.

При помощи (6.27), (6.28) несложно ( H) найти ковариационную матрицу:

(6.30)

Если в пределе у системы существует стационарный режим, то в этом случае матрица дисперсий становится постоянной, а ковариация зависит только от разности времён .

Таким образом, алгоритм решения линейной задачи следующий:

  • Находим собственные значения и вектора матрицы .
  • Записываем решение для средних (6.24) и выражаем через .
  • При помощи соотношения находим .
  • Вычисляем матрицу дисперсий .

Уравнение стохастического осциллятора << Оглавление >> Многомерие помогает одномерию

Стохастический мир - простое введение в стохастические дифференциальные уравнения