Многомерное распределение Гаусса — различия между версиями

Материал из synset
Перейти к: навигация, поиск
 
(не показаны 23 промежуточные версии этого же участника)
Строка 7: Строка 7:
 
<math>\textstyle \bullet</math> При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения операции умножения  матриц используется два типа соглашений:
 
<math>\textstyle \bullet</math> При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения операции умножения  матриц используется два типа соглашений:
  
:<center><math> \eta_\alpha = \sum^n_{i=1} S_{\alpha i} \;\varepsilon_i \;=\;  S_{\alpha i} \;\varepsilon_i = (\mathbf{S}\cdot \mathbf{\epsilon})_{\alpha}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \eta_\alpha = \sum^n_{i=1} S_{\alpha i} \;\varepsilon_i \;=\;  S_{\alpha i} \;\varepsilon_i = (\mathbf{S}\cdot \mathbf{\epsilon})_{\alpha}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.34)'''</div>
 +
|}
  
По ''повторяющемуся'' индексу всегда подразумевается суммирование, и знак суммы  ''опускается''. Выше таковым является индекс "<math>\textstyle i</math>" во втором равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют "''немыми''". В процессе вычислений их можно переобозначить в любую букву, которая ещё не используется в выражении. Третье равенство в уравнении () &mdash; это матричная форма той же суммы, в которой матрица <math>\textstyle '''S''' = S_{\alpha\beta}</math> и вектор <math>\textstyle \epsilon = \{\varepsilon_1,...,\varepsilon_n\}</math> перемножаются вообще без упоминания индексов и знака суммирования.
+
По ''повторяющемуся'' индексу всегда подразумевается суммирование, и знак суммы  ''опускается''. Выше таковым является индекс "<math>i</math>" во втором равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют "немыми". В процессе вычислений их можно переобозначить в любую букву, которая ещё не используется в выражении. Третье равенство в уравнении (1.34) &mdash; это матричная форма той же суммы, в которой матрица <math>\mathbf{S} = S_{\alpha\beta}</math> и вектор <math>\textstyle \epsilon = \{\varepsilon_1,...,\varepsilon_n\}</math> перемножаются вообще без упоминания индексов и знака суммирования.
  
Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения <math>\left<\varepsilon_i \varepsilon_j\right></math> равно единице для совпадающих индексов и нулю &mdash; для различных. Подобная матрица будет обозначаться символом Кронекера:
+
Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения  
 +
<math>\left\langle \varepsilon_i \varepsilon_j \right\rangle</math>  
 +
равно единице для совпадающих индексов и нулю &mdash; для различных. Подобная матрица будет обозначаться символом Кронекера:
  
:<center><math>\left\langle \varepsilon_i\varepsilon_j\right\rangle =\delta_{ij} = \left\{ \begin{array}{ll} 1 & i=j\ 0 & i\neq j. \end{array} \right.</math></center>
+
<center>
 +
<math>
 +
\left\langle \varepsilon_i\varepsilon_j\right\rangle =
 +
\delta_{ij} = \left\{
 +
\begin{array}{ll}  
 +
1 & i=j\\
 +
0 & i\neq j. \end{array}
 +
\right.
 +
</math>
 +
</center>
  
 
Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>:
 
Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>:
  
:<center><math> \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = ('''S''''''S'''^T)_{\alpha\beta}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \bigl\langle\eta_\alpha\eta_\beta\bigr\rangle = S_{\alpha i} S_{\beta j} \bigl\langle\varepsilon_i\varepsilon_j\bigr\rangle = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = (\mathbf{S}\mathbf{S}^T)_{\alpha\beta}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.35)'''</div>
 +
|}
  
 
При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.
 
При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.
  
Матрица <math>\textstyle '''S'''</math> может имеет обратную <math>\textstyle '''S'''^{-1}</math>, если выполняется уравнение:
+
Матрица <math>\textstyle \mathbf{S}</math> может имеет обратную <math>\textstyle \mathbf{S}^{-1}</math>, если выполняется уравнение:
  
:<center><math>'''S'''\cdot '''S'''^{-1} =  '''S'''^{-1} \cdot  '''S''' = '''1''',</math></center>
+
:<center><math>\mathbf{S}\cdot \mathbf{S}^{-1} =  \mathbf{S}^{-1} \cdot  \mathbf{S} = \mathbf{1},</math></center>
  
где <math>\textstyle '''1'''=\delta_{ij}</math> &mdash; единичная матрица (символ Кронекера). Так, для определённого выше вектора <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> можно записать:
+
где <math>\textstyle \mathbf{1}=\delta_{ij}</math> &mdash; единичная матрица (символ Кронекера). Так, для определённого выше вектора <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> можно записать:
  
:<center><math>\eta ='''S'''\cdot \epsilon\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\epsilon='''S'''^{-1}\cdot \eta,</math></center>
+
:<center><math>\eta =\mathbf{S}\cdot \epsilon\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\epsilon=\mathbf{S}^{-1}\cdot \eta,</math></center>
  
где мы умножили левую и правую части на <math>\textstyle '''S'''^{-1}</math>.
+
где мы умножили левую и правую части на <math>\textstyle \mathbf{S}^{-1}</math>.
  
<math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> &mdash; стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины  <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них () при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' ():
+
<math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> &mdash; стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины  <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них (1.34) при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' (1.35):
  
:<center><math>D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;'''D''' = '''S'''\cdot '''S'''^{T},</math></center>
+
:<center><math>D_{\alpha\beta}=\bigl\langle\eta_\alpha\eta_\beta\bigr\rangle,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{D} = \mathbf{S}\cdot \mathbf{S}^{T},</math></center>
  
 
которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>.
 
которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>.
  
Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle '''b'''=(b_1,...,b_n)</math> и вычислим среднее экспоненты от скалярного произведения <math>\textstyle '''b'''\cdot \eta=b_1\eta_1+...+b_n\eta_n</math> (по <math>\textstyle n</math> ''нет'' суммы!):
+
Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle \mathbf{b}=(b_1,...,b_n)</math> и вычислим среднее экспоненты от скалярного произведения <math>\textstyle \mathbf{b}\cdot \eta=b_1\eta_1+...+b_n\eta_n</math> (по <math>\textstyle n</math> ''нет'' суммы!):
  
:<center><math>\left\langle e^{'''b'''\cdot \eta}\right\rangle  = \left\langle e^{'''b'''\cdot '''S'''\cdot \varepsilon}\right\rangle  = \left\langle e^{ b_{i}  S_{i1} \varepsilon_1}\right\rangle \cdot ...\cdot\left\langle e^{b_{i}  S_{in} \varepsilon_n}\right\rangle = e^{\frac{1}{2}\{(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2\}}.</math></center>
+
:<center><math>\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle  = \left\langle e^{\mathbf{b}\cdot \mathbf{S}\cdot \varepsilon}\right\rangle  = \left\langle e^{ b_{i}  S_{i1} \varepsilon_1}\right\rangle \cdot ...\cdot\left\langle e^{b_{i}  S_{in} \varepsilon_n}\right\rangle = e^{\frac{1}{2}\{(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2\}}.</math></center>
  
Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида:
+
Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и [[Нормальное_распределение|формулой]]. В показателе экспоненты стоит матричное выражение вида:
  
:<center><math>(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = '''b'''\cdot '''S'''\cdot '''S'''^T\cdot '''b'''.</math></center>
+
:<center><math>(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = \mathbf{b}\cdot \mathbf{S}\cdot \mathbf{S}^T\cdot \mathbf{b}.</math></center>
  
 
Поэтому окончательно производящая функция равна:
 
Поэтому окончательно производящая функция равна:
  
:<center><math>\phi('''b''')=\left\langle e^{'''b'''\cdot \eta}\right\rangle  =  e^{\frac{1}{2}\,'''b'''\cdot '''D'''\cdot '''b'''}.</math></center>
+
:<center><math>\phi(\mathbf{b})=\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle  =  e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}.</math></center>
  
Взяв частные производные по <math>\textstyle b_\alpha</math>,  несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl<\eta_\alpha\eta_\beta\bigr></math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle '''b'''\cdot '''D'''\cdot '''b'''</math> равно <math>\textstyle b_i D_{ij}  b_j</math>, имеем:
+
Взяв частные производные по <math>\textstyle b_\alpha</math>,  несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl\langle\eta_\alpha\eta_\beta\bigr\rangle</math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle \mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}</math> равно <math>\textstyle b_i D_{ij}  b_j</math>, имеем:
  
:<center><math>\frac{\partial \phi('''b''') }{\partial b_\alpha} = \frac{1}{2}\, (D_{\alpha j} b_j + b_i D_{i\alpha} ) \, \phi('''b''') = D_{\alpha i} b_i  \, \phi('''b'''),</math></center>
+
:<center><math>\frac{\partial \phi(\mathbf{b}) }{\partial b_\alpha} = \frac{1}{2}\, (D_{\alpha j} b_j + b_i D_{i\alpha} ) \, \phi(\mathbf{b}) = D_{\alpha i} b_i  \, \phi(\mathbf{b}),</math></center>
  
 
где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная:
 
где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная:
  
:<center><math>\frac{\partial^2 \phi('''b''') }{\partial b_\alpha \partial b_\beta} = D_{\alpha \beta}  \, \phi('''b''') + D_{\alpha i} b_i  \, D_{\beta j} b_j \,\phi('''b''').</math></center>
+
:<center><math>\frac{\partial^2 \phi(\mathbf{b}) }{\partial b_\alpha \partial b_\beta} = D_{\alpha \beta}  \, \phi(\mathbf{b}) + D_{\alpha i} b_i  \, D_{\beta j} b_j \,\phi(\mathbf{b}).</math></center>
  
Полагая <math>\textstyle '''b'''=0</math> и учитывая, что
+
Полагая <math>\textstyle \mathbf{b}=0</math> и учитывая, что
  
:<center><math>\frac{\partial^2 \left\langle e^{'''b'''\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{'''b'''=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,</math></center>
+
:<center><math>\frac{\partial^2 \left\langle e^{\mathbf{b}\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{\mathbf{b}=0} = \bigl\langle\eta_\alpha\eta_\beta\bigr\rangle,</math></center>
  
приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr></math>. В качестве упражнения предлагается проверить следующее тензорное выражение:
+
приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl\langle\eta_\alpha\eta_\beta\bigr\rangle</math>. В качестве упражнения предлагается проверить следующее тензорное выражение:
  
:<center><math>\bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center>
+
:<center><math>\bigl\langle\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr\rangle =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center>
  
Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется  матрицей дисперсии '''D'''.
+
Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется  матрицей дисперсии <math>\mathbf{D}</math>.
  
 
<math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>:
 
<math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>:
Строка 73: Строка 90:
 
При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан:
 
При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан:
  
:<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det'''S''')\, d^n\varepsilon.</math></center>
+
:<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det\mathbf{S})\, d^n\varepsilon.</math></center>
  
Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det'''D'''=(\det'''S''')^2</math> и, следовательно:
+
Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det\mathbf{D}=(\det\mathbf{S})^2</math> и, следовательно:
  
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot '''D'''^{-1}\cdot \eta}}{(2\pi)^{n/2}\sqrt{\det'''D'''}},</math></center>
+
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot \mathbf{D}^{-1}\cdot \eta}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center>
  
где в показателе экспоненты подставлены <math>\textstyle \epsilon='''S'''^{-1}\cdot \eta</math>:
+
где в показателе экспоненты подставлены <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot \eta</math>:
  
:<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot {'''S'''^{-1}}^{T}\cdot'''S'''^{-1}\cdot \eta = \eta \cdot ('''S'''\cdot '''S'''^T)^{-1}\cdot \eta</math></center>
+
:<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot {\mathbf{S}^{-1}}^{T}\cdot\mathbf{S}^{-1}\cdot \eta = \eta \cdot (\mathbf{S}\cdot \mathbf{S}^T)^{-1}\cdot \eta</math></center>
  
и использовано свойство обратных матриц <math>\textstyle ('''A'''\cdot '''B''')^{-1}= '''B'''^{-1}\cdot '''A'''^{-1}</math> (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, <math>\textstyle P(\eta_1,...,\eta_n)</math> нормирована на единицу, поэтому, учитывая выражение для производящей функции <math>\textstyle \bigl<e^{'''b'''\cdot \eta}\bigr></math>, можно записать значение следующего <math>\textstyle n</math>-мерного гауссового интеграла:
+
и использовано свойство обратных матриц <math>\textstyle (\mathbf{A}\cdot \mathbf{b})^{-1}= \mathbf{b}^{-1}\cdot \mathbf{A}^{-1}</math>. Как и любая плотность вероятности, <math>\textstyle P(\eta_1,...,\eta_n)</math> нормирована на единицу, поэтому, учитывая выражение для производящей функции <math>\textstyle \bigl\langle e^{\mathbf{b}\cdot \eta}\bigr\rangle </math>, можно записать значение следующего <math>\textstyle n</math>-мерного гауссового интеграла:
  
:<center><math> \int\limits^{\infty}_{-\infty} e^{'''b'''\cdot \eta - \frac{1}{2}\eta\cdot '''D'''^{-1}\cdot \eta} \,d^n\eta = (2\pi)^{n/2} \,\sqrt{\det'''D'''}\; e^{\frac{1}{2}\,'''b'''\cdot '''D'''\cdot '''b'''}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math> \int\limits^{\infty}_{-\infty} e^{\mathbf{b}\cdot \eta - \frac{1}{2}\eta\cdot \mathbf{D}^{-1}\cdot \eta} \,d^n\eta = (2\pi)^{n/2} \,\sqrt{\det\mathbf{D}}\; e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}. </math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.36)'''</div>
 +
|}
  
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl<\eta\bigr>='''S'''\cdot \bigl<\epsilon\bigr>=0</math>. Можно к ним прибавить некоторый постоянный вектор <math>\textstyle \bar{\eta}_\alpha</math>, который будет иметь смысл средних значений <math>\textstyle \eta_\alpha</math>:
+
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl\langle\eta\bigr\rangle=\mathbf{S}\cdot \bigl\langle\epsilon\bigr\rangle=0</math>. Можно к ним прибавить некоторый постоянный вектор <math>\textstyle \bar{\eta}_\alpha</math>, который будет иметь смысл средних значений <math>\textstyle \eta_\alpha</math>:
  
 
:<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center>
 
:<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center>
Строка 93: Строка 113:
 
Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид:
 
Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид:
  
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot '''D'''^{-1}\cdot (\eta-\bar{\eta})}}{(2\pi)^{n/2}\sqrt{\det'''D'''}},</math></center>
+
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot \mathbf{D}^{-1}\cdot (\eta-\bar{\eta})}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center>
  
где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon='''S'''^{-1}\cdot (\eta-\bar{\eta})</math>.
+
где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot (\eta-\bar{\eta})</math>.
  
 
<math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>:
 
<math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>:
  
:<center><math>'''D''' = \begin{pmatrix} \sigma^2_1  & \rho\,\sigma_1\sigma_2 \ \rho\,\sigma_1\sigma_2 & \sigma^2_2  \ \end{pmatrix}.</math></center>
+
:<center><math>
 +
\mathbf{D} =  
 +
\begin{pmatrix} \sigma^2_1  & \rho\,\sigma_1\sigma_2 \\
 +
\rho\,\sigma_1\sigma_2 & \sigma^2_2  \\
 +
\end{pmatrix}.
 +
</math>
 +
</center>
  
Несложно проверить, что определитель <math>\textstyle '''D'''</math> равен
+
Несложно проверить, что определитель <math>\textstyle \mathbf{D}</math> равен
  
:<center><math>\det'''D''' = \sigma^2_1\sigma^2_2 (1-\rho^2),</math></center>
+
:<center><math>\det\mathbf{D} = \sigma^2_1\sigma^2_2 (1-\rho^2),</math></center>
  
а обратная к <math>\textstyle '''D'''</math> матрица имеет вид:
+
а обратная к <math>\textstyle \mathbf{D}</math> матрица имеет вид:
  
:<center><math>'''D'''^{-1} = \frac{1}{\det '''D'''}\, \begin{pmatrix} \sigma^2_2  & -\rho\,\sigma_1\sigma_2 \ -\rho\,\sigma_1\sigma_2 & \sigma^2_1  \ \end{pmatrix}.</math></center>
+
:<center><math>\mathbf{D}^{-1} = \frac{1}{\det \mathbf{D}}\,  
 +
\begin{pmatrix} \sigma^2_2  & -\rho\,\sigma_1\sigma_2 \\
 +
-\rho\,\sigma_1\sigma_2 & \sigma^2_1  \\
 +
\end{pmatrix}.
 +
</math>
 +
</center>
  
 
В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом:
 
В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом:
Строка 113: Строка 144:
 
:<center><math>P(\eta_1,\eta_2)=\frac{\exp\{-(x_1^2-2\rho\, x_1 x_2 + x^2_2)/2(1-\rho^2)\}}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}},</math></center>
 
:<center><math>P(\eta_1,\eta_2)=\frac{\exp\{-(x_1^2-2\rho\, x_1 x_2 + x^2_2)/2(1-\rho^2)\}}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}},</math></center>
  
где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> &mdash; относительные отклонения <math>\textstyle \eta_i</math> от своих  средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> &mdash; коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>.
+
где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> &mdash; относительные отклонения <math>\textstyle \eta_i</math> от своих  средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl\langle(\eta_1-\bar{\eta}_1)^2\bigr\rangle=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> &mdash; коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>.
  
Матрица <math>\textstyle '''D'''</math> является симметричной, тогда как <math>\textstyle '''S'''</math> в общем случае &mdash; нет. Поэтому <math>\textstyle '''D'''</math> зависит от трёх параметров, а <math>\textstyle '''S'''</math> &mdash; от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц <math>\textstyle '''S'''</math>. Так, можно записать:
+
Матрица <math>\textstyle \mathbf{D}</math> является симметричной, тогда как <math>\textstyle \mathbf{S}</math> в общем случае &mdash; нет. Поэтому <math>\textstyle \mathbf{D}</math> зависит от трёх параметров, а <math>\textstyle \mathbf{S}</math> &mdash; от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц <math>\textstyle \mathbf{S}</math>. Так, можно записать:
  
:<center><math>'''S''' = \begin{pmatrix} \sigma_1\cos \alpha  &  \sigma_1\sin\alpha  \ \sigma_2\sin \beta    &  \sigma_2\cos\beta  \ \end{pmatrix},</math></center>
+
<center>
 +
<math>
 +
\mathbf{S} =  
 +
\begin{pmatrix}  
 +
\sigma_1\cos \alpha  &  \sigma_1\sin\alpha  \\
 +
\sigma_2\sin \beta    &  \sigma_2\cos\beta  \\
 +
\end{pmatrix},
 +
</math>
 +
</center>
  
 
где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>.
 
где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>.
  
Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle '''D'''='''S''''''S'''^{T}</math> является диагональной, а при <math>\textstyle \sigma_1=\sigma_2=1</math> &mdash; единичной. Матрицу <math>\textstyle '''S'''</math>, удовлетворяющую уравнению <math>\textstyle '''S''''''S'''^{T}='''1'''</math>, называют ''ортогональной''.
+
Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle \mathbf{D}=\mathbf{S}\mathbf{S}^{T}</math> является диагональной, а при <math>\textstyle \sigma_1=\sigma_2=1</math> &mdash; единичной. Матрицу <math>\textstyle \mathbf{S}</math>, удовлетворяющую уравнению <math>\textstyle \mathbf{S}\mathbf{S}^{T}=\mathbf{1}</math>, называют ''ортогональной''.
  
 
Если <math>\textstyle \alpha=0</math>,  <math>\textstyle \rho=\sin\beta</math>,  <math>\textstyle \sigma_1=\sigma_2=1</math>, то
 
Если <math>\textstyle \alpha=0</math>,  <math>\textstyle \rho=\sin\beta</math>,  <math>\textstyle \sigma_1=\sigma_2=1</math>, то
  
:<center><math> '''S''' = \begin{pmatrix} 1    &  0  \ \rho  &  \sqrt{1-\rho^2} \ \end{pmatrix}, \;\;\;\;\;\;\;\;\;\;\;\;\; '''D''' = \begin{pmatrix} 1    &  \rho  \ \rho  &  1    \ \end{pmatrix}. </math></center>
+
{| width="100%" 
 +
| width="90%" align="center"|<math>  
 +
\mathbf{S} =  
 +
\begin{pmatrix}  
 +
1    &  0  \\
 +
\rho  &  \sqrt{1-\rho^2} \\
 +
\end{pmatrix}, \;\;\;\;\;\;\;\;\;\;\;\;\;
 +
\mathbf{D} =  
 +
\begin{pmatrix}  
 +
1    &  \rho  \\
 +
\rho  &  1    \\
 +
\end{pmatrix}.  
 +
</math>
 +
|  <div width="10%" align="right" style="color:#0000CC">'''(1.37)'''</div>
 +
|}
  
 
Подобная смесь  переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> :
 
Подобная смесь  переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> :
  
:<center><math>\left\{ \begin{array}{l} \eta_1 =\;\; \varepsilon_1\ \eta_2 = \rho\,\varepsilon_1+ \sqrt{1-\rho^2}\;\varepsilon_2\ \end{array} \right. \;\;\;\;\;=>\;\;\;\;\; \bigl<\eta_1\cdot\eta_2\bigr> = \rho,\;\;\;\;\;\;\bigl<\eta^2_1\bigr>=\bigl<\eta^2_2\bigr>=1.</math></center>
+
:<center><math>\left\{  
 +
\begin{array}{l}  
 +
\eta_1 =\;\; \varepsilon_1\\
 +
\eta_2 = \rho\,\varepsilon_1+ \sqrt{1-\rho^2}\;\varepsilon_2\\
 +
\end{array}  
 +
\right. \;\;\;\;\;=>\;\;\;\;\;  
 +
\bigl\langle\eta_1\cdot\eta_2\bigr\rangle =  
 +
\rho,\;\;\;\;\;\;\bigl\langle\eta^2_1
 +
\bigr\rangle=\bigl\langle\eta^2_2\bigr\rangle=1.
 +
</math>
 +
</center>
  
 
Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.
 
Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.

Текущая версия на 15:09, 17 февраля 2010

Характеристическая функция << Оглавление >> Модель аддитивного блуждания

При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения операции умножения матриц используется два типа соглашений:

(1.34)

По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс "" во втором равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют "немыми". В процессе вычислений их можно переобозначить в любую букву, которая ещё не используется в выражении. Третье равенство в уравнении (1.34) — это матричная форма той же суммы, в которой матрица и вектор перемножаются вообще без упоминания индексов и знака суммирования.

Рассмотрим независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения равно единице для совпадающих индексов и нулю — для различных. Подобная матрица будет обозначаться символом Кронекера:

Вычислим, например, ковариационную матрицу случайных величин :

(1.35)

При суммировании с символом Кронекера в сумме остаются только слагаемые с . Поэтому одна из сумм (по ) и символ Кронекера исчезают, и остаётся только суммационный индекс . Затем вводится новая матрица с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.

Матрица может имеет обратную , если выполняется уравнение:

где — единичная матрица (символ Кронекера). Так, для определённого выше вектора можно записать:

где мы умножили левую и правую части на .

Пусть — стандартные независимые гауссовые случайные величины , а величины получены из них (1.34) при помощи перемешивающих коэффициентов . Среднее значение произведения определяется матрицей дисперсий (1.35):

которая является симметричной: .

Найдём производящую функцию для случайных величин . Для этого введём вектор и вычислим среднее экспоненты от скалярного произведения (по нет суммы!):

Мы воспользовались независимостью величин , разбив среднее произведения на произведение средних, и формулой. В показателе экспоненты стоит матричное выражение вида:

Поэтому окончательно производящая функция равна:

Взяв частные производные по , несложно найти среднее от любого произведения . Проверим, что среднее равно . Возьмём производную производящей функции по . Учитывая, что равно , имеем:

где во втором равенстве мы воспользовались тем, что . Аналогично берётся вторая производная:

Полагая и учитывая, что

приходим к соотношению . В качестве упражнения предлагается проверить следующее тензорное выражение:

Таким образом, среднее любых степеней полностью определяется матрицей дисперсии .

Найдём теперь явный вид совместной плотности вероятности для величин . Запишем сначала плотность вероятности для :

При замене переменных в интеграле необходимо изменить элемент объёма интегрирования , умножив его на якобиан:

Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то и, следовательно:

где в показателе экспоненты подставлены :

и использовано свойство обратных матриц . Как и любая плотность вероятности, нормирована на единицу, поэтому, учитывая выражение для производящей функции , можно записать значение следующего -мерного гауссового интеграла:

(1.36)

До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: . Можно к ним прибавить некоторый постоянный вектор , который будет иметь смысл средних значений :

Тогда общее -мерное гауссово распределение принимает вид:

где в плотность вероятности подставлено .

Рассмотрим в качестве примера случай . Запишем элементы симметричной матрицы при помощи трёх независимых констант , и :

Несложно проверить, что определитель равен

а обратная к матрица имеет вид:

В результате совместная плотность вероятности для может быть записана следующим образом:

где — относительные отклонения от своих средних . Параметры являются волатильностями: , а — коэффициент корреляции: .

Матрица является симметричной, тогда как в общем случае — нет. Поэтому зависит от трёх параметров, а — от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц . Так, можно записать:

где . Понятно, что возможны различные комбинации "углов" и , дающие один и тот же корреляционный коэффициент .

Если , то , и является диагональной, а при — единичной. Матрицу , удовлетворяющую уравнению , называют ортогональной.

Если , , , то

(1.37)

Подобная смесь переводит независимые стандартные случайные величины в скоррелированные, так что  :

Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.


Характеристическая функция << Оглавление >> Модель аддитивного блуждания

Стохастический мир - простое введение в стохастические дифференциальные уравнения