Многомерное распределение Гаусса — различия между версиями

Материал из synset
Перейти к: навигация, поиск
Строка 12: Строка 12:
  
 
Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения  
 
Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения  
 +
 
<math>\left<\varepsilon_i \varepsilon_j\right></math>  
 
<math>\left<\varepsilon_i \varepsilon_j\right></math>  
 +
 
равно единице для совпадающих индексов и нулю &mdash; для различных. Подобная матрица будет обозначаться символом Кронекера:
 
равно единице для совпадающих индексов и нулю &mdash; для различных. Подобная матрица будет обозначаться символом Кронекера:
  
Строка 19: Строка 21:
 
Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>:
 
Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>:
  
:<center><math> \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = ('''S''''''S'''^T)_{\alpha\beta}. </math></center>
+
:<center><math> \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = (\mathbf{S}\mathbf{S}^T)_{\alpha\beta}. </math></center>
  
 
При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.
 
При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.
  
Матрица <math>\textstyle '''S'''</math> может имеет обратную <math>\textstyle '''S'''^{-1}</math>, если выполняется уравнение:
+
Матрица <math>\textstyle \mathbf{S}</math> может имеет обратную <math>\textstyle \mathbf{S}^{-1}</math>, если выполняется уравнение:
  
:<center><math>'''S'''\cdot '''S'''^{-1} =  '''S'''^{-1} \cdot  '''S''' = '''1''',</math></center>
+
:<center><math>\mathbf{S}\cdot \mathbf{S}^{-1} =  \mathbf{S}^{-1} \cdot  \mathbf{S} = \mathbf{1},</math></center>
  
где <math>\textstyle '''1'''=\delta_{ij}</math> &mdash; единичная матрица (символ Кронекера). Так, для определённого выше вектора <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> можно записать:
+
где <math>\textstyle \mathbf{1}=\delta_{ij}</math> &mdash; единичная матрица (символ Кронекера). Так, для определённого выше вектора <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> можно записать:
  
:<center><math>\eta ='''S'''\cdot \epsilon\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\epsilon='''S'''^{-1}\cdot \eta,</math></center>
+
:<center><math>\eta =\mathbf{S}\cdot \epsilon\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\epsilon=\mathbf{S}^{-1}\cdot \eta,</math></center>
  
где мы умножили левую и правую части на <math>\textstyle '''S'''^{-1}</math>.
+
где мы умножили левую и правую части на <math>\textstyle \mathbf{S}^{-1}</math>.
  
 
<math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> &mdash; стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины  <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них () при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' ():
 
<math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> &mdash; стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины  <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них () при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' ():
  
:<center><math>D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;'''D''' = '''S'''\cdot '''S'''^{T},</math></center>
+
:<center><math>D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{D} = \mathbf{S}\cdot \mathbf{S}^{T},</math></center>
  
 
которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>.
 
которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>.
  
Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle '''b'''=(b_1,...,b_n)</math> и вычислим среднее экспоненты от скалярного произведения <math>\textstyle '''b'''\cdot \eta=b_1\eta_1+...+b_n\eta_n</math> (по <math>\textstyle n</math> ''нет'' суммы!):
+
Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle \mathbf{b}=(b_1,...,b_n)</math> и вычислим среднее экспоненты от скалярного произведения <math>\textstyle \mathbf{b}\cdot \eta=b_1\eta_1+...+b_n\eta_n</math> (по <math>\textstyle n</math> ''нет'' суммы!):
  
:<center><math>\left\langle e^{'''b'''\cdot \eta}\right\rangle  = \left\langle e^{'''b'''\cdot '''S'''\cdot \varepsilon}\right\rangle  = \left\langle e^{ b_{i}  S_{i1} \varepsilon_1}\right\rangle \cdot ...\cdot\left\langle e^{b_{i}  S_{in} \varepsilon_n}\right\rangle = e^{\frac{1}{2}\{(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2\}}.</math></center>
+
:<center><math>\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle  = \left\langle e^{\mathbf{b}\cdot \mathbf{S}\cdot \varepsilon}\right\rangle  = \left\langle e^{ b_{i}  S_{i1} \varepsilon_1}\right\rangle \cdot ...\cdot\left\langle e^{b_{i}  S_{in} \varepsilon_n}\right\rangle = e^{\frac{1}{2}\{(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2\}}.</math></center>
  
 
Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида:
 
Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида:
  
:<center><math>(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = '''b'''\cdot '''S'''\cdot '''S'''^T\cdot '''b'''.</math></center>
+
:<center><math>(b_{i}  S_{i1})^2+...+(b_{i}  S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = \mathbf{b}\cdot \mathbf{S}\cdot \mathbf{S}^T\cdot \mathbf{b}.</math></center>
  
 
Поэтому окончательно производящая функция равна:
 
Поэтому окончательно производящая функция равна:
  
:<center><math>\phi('''b''')=\left\langle e^{'''b'''\cdot \eta}\right\rangle  =  e^{\frac{1}{2}\,'''b'''\cdot '''D'''\cdot '''b'''}.</math></center>
+
:<center><math>\phi(\mathbf{b})=\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle  =  e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}.</math></center>
  
Взяв частные производные по <math>\textstyle b_\alpha</math>,  несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl<\eta_\alpha\eta_\beta\bigr></math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle '''b'''\cdot '''D'''\cdot '''b'''</math> равно <math>\textstyle b_i D_{ij}  b_j</math>, имеем:
+
Взяв частные производные по <math>\textstyle b_\alpha</math>,  несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl<\eta_\alpha\eta_\beta\bigr></math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle \mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}</math> равно <math>\textstyle b_i D_{ij}  b_j</math>, имеем:
  
:<center><math>\frac{\partial \phi('''b''') }{\partial b_\alpha} = \frac{1}{2}\, (D_{\alpha j} b_j + b_i D_{i\alpha} ) \, \phi('''b''') = D_{\alpha i} b_i  \, \phi('''b'''),</math></center>
+
:<center><math>\frac{\partial \phi(\mathbf{b}) }{\partial b_\alpha} = \frac{1}{2}\, (D_{\alpha j} b_j + b_i D_{i\alpha} ) \, \phi(\mathbf{b}) = D_{\alpha i} b_i  \, \phi(\mathbf{b}),</math></center>
  
 
где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная:
 
где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная:
  
:<center><math>\frac{\partial^2 \phi('''b''') }{\partial b_\alpha \partial b_\beta} = D_{\alpha \beta}  \, \phi('''b''') + D_{\alpha i} b_i  \, D_{\beta j} b_j \,\phi('''b''').</math></center>
+
:<center><math>\frac{\partial^2 \phi(\mathbf{b}) }{\partial b_\alpha \partial b_\beta} = D_{\alpha \beta}  \, \phi(\mathbf{b}) + D_{\alpha i} b_i  \, D_{\beta j} b_j \,\phi(\mathbf{b}).</math></center>
  
Полагая <math>\textstyle '''b'''=0</math> и учитывая, что
+
Полагая <math>\textstyle \mathbf{b}=0</math> и учитывая, что
  
:<center><math>\frac{\partial^2 \left\langle e^{'''b'''\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{'''b'''=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,</math></center>
+
:<center><math>\frac{\partial^2 \left\langle e^{\mathbf{b}\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{\mathbf{b}=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,</math></center>
  
 
приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr></math>. В качестве упражнения предлагается проверить следующее тензорное выражение:
 
приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr></math>. В качестве упражнения предлагается проверить следующее тензорное выражение:
Строка 67: Строка 69:
 
:<center><math>\bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center>
 
:<center><math>\bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center>
  
Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется  матрицей дисперсии '''D'''.
+
Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется  матрицей дисперсии \mathbf{D}.
  
 
<math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>:
 
<math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>:
Строка 75: Строка 77:
 
При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан:
 
При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан:
  
:<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det'''S''')\, d^n\varepsilon.</math></center>
+
:<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det\mathbf{S})\, d^n\varepsilon.</math></center>
  
Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det'''D'''=(\det'''S''')^2</math> и, следовательно:
+
Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det\mathbf{D}=(\det\mathbf{S})^2</math> и, следовательно:
  
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot '''D'''^{-1}\cdot \eta}}{(2\pi)^{n/2}\sqrt{\det'''D'''}},</math></center>
+
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot \mathbf{D}^{-1}\cdot \eta}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center>
  
где в показателе экспоненты подставлены <math>\textstyle \epsilon='''S'''^{-1}\cdot \eta</math>:
+
где в показателе экспоненты подставлены <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot \eta</math>:
  
:<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot {'''S'''^{-1}}^{T}\cdot'''S'''^{-1}\cdot \eta = \eta \cdot ('''S'''\cdot '''S'''^T)^{-1}\cdot \eta</math></center>
+
:<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot {\mathbf{S}^{-1}}^{T}\cdot\mathbf{S}^{-1}\cdot \eta = \eta \cdot (\mathbf{S}\cdot \mathbf{S}^T)^{-1}\cdot \eta</math></center>
  
и использовано свойство обратных матриц <math>\textstyle ('''A'''\cdot '''B''')^{-1}= '''B'''^{-1}\cdot '''A'''^{-1}</math> (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, <math>\textstyle P(\eta_1,...,\eta_n)</math> нормирована на единицу, поэтому, учитывая выражение для производящей функции <math>\textstyle \bigl<e^{'''b'''\cdot \eta}\bigr></math>, можно записать значение следующего <math>\textstyle n</math>-мерного гауссового интеграла:
+
и использовано свойство обратных матриц <math>\textstyle (\mathbf{A}\cdot \mathbf{b})^{-1}= \mathbf{b}^{-1}\cdot \mathbf{A}^{-1}</math> (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, <math>\textstyle P(\eta_1,...,\eta_n)</math> нормирована на единицу, поэтому, учитывая выражение для производящей функции <math>\textstyle \bigl<e^{\mathbf{b}\cdot \eta}\bigr></math>, можно записать значение следующего <math>\textstyle n</math>-мерного гауссового интеграла:
  
:<center><math> \int\limits^{\infty}_{-\infty} e^{'''b'''\cdot \eta - \frac{1}{2}\eta\cdot '''D'''^{-1}\cdot \eta} \,d^n\eta = (2\pi)^{n/2} \,\sqrt{\det'''D'''}\; e^{\frac{1}{2}\,'''b'''\cdot '''D'''\cdot '''b'''}. </math></center>
+
:<center><math> \int\limits^{\infty}_{-\infty} e^{\mathbf{b}\cdot \eta - \frac{1}{2}\eta\cdot \mathbf{D}^{-1}\cdot \eta} \,d^n\eta = (2\pi)^{n/2} \,\sqrt{\det\mathbf{D}}\; e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}. </math></center>
  
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl<\eta\bigr>='''S'''\cdot \bigl<\epsilon\bigr>=0</math>. Можно к ним прибавить некоторый постоянный вектор <math>\textstyle \bar{\eta}_\alpha</math>, который будет иметь смысл средних значений <math>\textstyle \eta_\alpha</math>:
+
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl<\eta\bigr>=\mathbf{S}\cdot \bigl<\epsilon\bigr>=0</math>. Можно к ним прибавить некоторый постоянный вектор <math>\textstyle \bar{\eta}_\alpha</math>, который будет иметь смысл средних значений <math>\textstyle \eta_\alpha</math>:
  
 
:<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center>
 
:<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center>
Строка 95: Строка 97:
 
Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид:
 
Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид:
  
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot '''D'''^{-1}\cdot (\eta-\bar{\eta})}}{(2\pi)^{n/2}\sqrt{\det'''D'''}},</math></center>
+
:<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot \mathbf{D}^{-1}\cdot (\eta-\bar{\eta})}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center>
  
где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon='''S'''^{-1}\cdot (\eta-\bar{\eta})</math>.
+
где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot (\eta-\bar{\eta})</math>.
  
 
<math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>:
 
<math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>:
  
:<center><math>'''D''' = \begin{pmatrix} \sigma^2_1  & \rho\,\sigma_1\sigma_2 \ \rho\,\sigma_1\sigma_2 & \sigma^2_2  \ \end{pmatrix}.</math></center>
+
:<center><math>\mathbf{D} = \begin{pmatrix} \sigma^2_1  & \rho\,\sigma_1\sigma_2 \ \rho\,\sigma_1\sigma_2 & \sigma^2_2  \ \end{pmatrix}.</math></center>
  
Несложно проверить, что определитель <math>\textstyle '''D'''</math> равен
+
Несложно проверить, что определитель <math>\textstyle \mathbf{D}</math> равен
  
:<center><math>\det'''D''' = \sigma^2_1\sigma^2_2 (1-\rho^2),</math></center>
+
:<center><math>\det\mathbf{D} = \sigma^2_1\sigma^2_2 (1-\rho^2),</math></center>
  
а обратная к <math>\textstyle '''D'''</math> матрица имеет вид:
+
а обратная к <math>\textstyle \mathbf{D}</math> матрица имеет вид:
  
:<center><math>'''D'''^{-1} = \frac{1}{\det '''D'''}\, \begin{pmatrix} \sigma^2_2  & -\rho\,\sigma_1\sigma_2 \ -\rho\,\sigma_1\sigma_2 & \sigma^2_1  \ \end{pmatrix}.</math></center>
+
:<center><math>\mathbf{D}^{-1} = \frac{1}{\det \mathbf{D}}\, \begin{pmatrix} \sigma^2_2  & -\rho\,\sigma_1\sigma_2 \ -\rho\,\sigma_1\sigma_2 & \sigma^2_1  \ \end{pmatrix}.</math></center>
  
 
В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом:
 
В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом:
Строка 117: Строка 119:
 
где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> &mdash; относительные отклонения <math>\textstyle \eta_i</math> от своих  средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> &mdash; коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>.
 
где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> &mdash; относительные отклонения <math>\textstyle \eta_i</math> от своих  средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> &mdash; коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>.
  
Матрица <math>\textstyle '''D'''</math> является симметричной, тогда как <math>\textstyle '''S'''</math> в общем случае &mdash; нет. Поэтому <math>\textstyle '''D'''</math> зависит от трёх параметров, а <math>\textstyle '''S'''</math> &mdash; от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц <math>\textstyle '''S'''</math>. Так, можно записать:
+
Матрица <math>\textstyle \mathbf{D}</math> является симметричной, тогда как <math>\textstyle \mathbf{S}</math> в общем случае &mdash; нет. Поэтому <math>\textstyle \mathbf{D}</math> зависит от трёх параметров, а <math>\textstyle \mathbf{S}</math> &mdash; от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц <math>\textstyle \mathbf{S}</math>. Так, можно записать:
  
:<center><math>'''S''' = \begin{pmatrix} \sigma_1\cos \alpha  &  \sigma_1\sin\alpha  \ \sigma_2\sin \beta    &  \sigma_2\cos\beta  \ \end{pmatrix},</math></center>
+
:<center><math>\mathbf{S} = \begin{pmatrix} \sigma_1\cos \alpha  &  \sigma_1\sin\alpha  \ \sigma_2\sin \beta    &  \sigma_2\cos\beta  \ \end{pmatrix},</math></center>
  
 
где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>.
 
где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>.
  
Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle '''D'''='''S''''''S'''^{T}</math> является диагональной, а при <math>\textstyle \sigma_1=\sigma_2=1</math> &mdash; единичной. Матрицу <math>\textstyle '''S'''</math>, удовлетворяющую уравнению <math>\textstyle '''S''''''S'''^{T}='''1'''</math>, называют ''ортогональной''.
+
Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle \mathbf{D}=\mathbf{S}\mathbf{S}^{T}</math> является диагональной, а при <math>\textstyle \sigma_1=\sigma_2=1</math> &mdash; единичной. Матрицу <math>\textstyle \mathbf{S}</math>, удовлетворяющую уравнению <math>\textstyle \mathbf{S}\mathbf{S}^{T}=\mathbf{1}</math>, называют ''ортогональной''.
  
 
Если <math>\textstyle \alpha=0</math>,  <math>\textstyle \rho=\sin\beta</math>,  <math>\textstyle \sigma_1=\sigma_2=1</math>, то
 
Если <math>\textstyle \alpha=0</math>,  <math>\textstyle \rho=\sin\beta</math>,  <math>\textstyle \sigma_1=\sigma_2=1</math>, то
  
:<center><math> '''S''' = \begin{pmatrix} 1    &  0  \ \rho  &  \sqrt{1-\rho^2} \ \end{pmatrix}, \;\;\;\;\;\;\;\;\;\;\;\;\; '''D''' = \begin{pmatrix} 1    &  \rho  \ \rho  &  1    \ \end{pmatrix}. </math></center>
+
:<center><math> \mathbf{S} = \begin{pmatrix} 1    &  0  \ \rho  &  \sqrt{1-\rho^2} \ \end{pmatrix}, \;\;\;\;\;\;\;\;\;\;\;\;\; \mathbf{D} = \begin{pmatrix} 1    &  \rho  \ \rho  &  1    \ \end{pmatrix}. </math></center>
  
 
Подобная смесь  переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> :
 
Подобная смесь  переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> :

Версия 14:36, 21 января 2010

Характеристическая функция << Оглавление >> Модель аддитивного блуждания

При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения операции умножения матриц используется два типа соглашений:

По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс "" во втором равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют "немыми". В процессе вычислений их можно переобозначить в любую букву, которая ещё не используется в выражении. Третье равенство в уравнении () — это матричная форма той же суммы, в которой матрица и вектор перемножаются вообще без упоминания индексов и знака суммирования.

Рассмотрим независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \left<\varepsilon_i \varepsilon_j\right>}

равно единице для совпадающих индексов и нулю — для различных. Подобная матрица будет обозначаться символом Кронекера:

Вычислим, например, ковариационную матрицу случайных величин :

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = (\mathbf{S}\mathbf{S}^T)_{\alpha\beta}. }

При суммировании с символом Кронекера в сумме остаются только слагаемые с . Поэтому одна из сумм (по ) и символ Кронекера исчезают, и остаётся только суммационный индекс . Затем вводится новая матрица с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.

Матрица может имеет обратную , если выполняется уравнение:

где — единичная матрица (символ Кронекера). Так, для определённого выше вектора можно записать:

где мы умножили левую и правую части на .

Пусть — стандартные независимые гауссовые случайные величины , а величины получены из них () при помощи перемешивающих коэффициентов . Среднее значение произведения определяется матрицей дисперсий ():

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{D} = \mathbf{S}\cdot \mathbf{S}^{T},}

которая является симметричной: .

Найдём производящую функцию для случайных величин . Для этого введём вектор и вычислим среднее экспоненты от скалярного произведения (по нет суммы!):

Мы воспользовались независимостью величин , разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида:

Поэтому окончательно производящая функция равна:

Взяв частные производные по , несложно найти среднее от любого произведения . Проверим, что среднее Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<\eta_\alpha\eta_\beta\bigr>} равно . Возьмём производную производящей функции по . Учитывая, что равно , имеем:

где во втором равенстве мы воспользовались тем, что . Аналогично берётся вторая производная:

Полагая и учитывая, что

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \frac{\partial^2 \left\langle e^{\mathbf{b}\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{\mathbf{b}=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,}

приходим к соотношению Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>} . В качестве упражнения предлагается проверить следующее тензорное выражение:

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.}

Таким образом, среднее любых степеней полностью определяется матрицей дисперсии \mathbf{D}.

Найдём теперь явный вид совместной плотности вероятности для величин . Запишем сначала плотность вероятности для :

При замене переменных в интеграле необходимо изменить элемент объёма интегрирования , умножив его на якобиан:

Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то и, следовательно:

где в показателе экспоненты подставлены :

и использовано свойство обратных матриц (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, нормирована на единицу, поэтому, учитывая выражение для производящей функции Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<e^{\mathbf{b}\cdot \eta}\bigr>} , можно записать значение следующего -мерного гауссового интеграла:

До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<\eta\bigr>=\mathbf{S}\cdot \bigl<\epsilon\bigr>=0} . Можно к ним прибавить некоторый постоянный вектор , который будет иметь смысл средних значений :

Тогда общее -мерное гауссово распределение принимает вид:

где в плотность вероятности подставлено .

Рассмотрим в качестве примера случай . Запишем элементы симметричной матрицы при помощи трёх независимых констант , и :

Несложно проверить, что определитель равен

а обратная к матрица имеет вид:

В результате совместная плотность вероятности для может быть записана следующим образом:

где — относительные отклонения от своих средних . Параметры являются волатильностями: Невозможно разобрать выражение (MathML с переходом в SVG или PNG (рекомендуется для современных браузеров и инструментов повышения доступности): Недопустимый ответ («Math extension cannot connect to Restbase.») от сервера «https://wikimedia.org/api/rest_v1/»:): {\displaystyle \textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1} , а — коэффициент корреляции: .

Матрица является симметричной, тогда как в общем случае — нет. Поэтому зависит от трёх параметров, а — от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц . Так, можно записать:

где . Понятно, что возможны различные комбинации "углов" и , дающие один и тот же корреляционный коэффициент .

Если , то , и является диагональной, а при — единичной. Матрицу , удовлетворяющую уравнению , называют ортогональной.

Если , , , то

Подобная смесь переводит независимые стандартные случайные величины в скоррелированные, так что  :

Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \left\{ \begin{array}{l} \eta_1 =\;\; \varepsilon_1\ \eta_2 = \rho\,\varepsilon_1+ \sqrt{1-\rho^2}\;\varepsilon_2\ \end{array} \right. \;\;\;\;\;=>\;\;\;\;\; \bigl<\eta_1\cdot\eta_2\bigr> = \rho,\;\;\;\;\;\;\bigl<\eta^2_1\bigr>=\bigl<\eta^2_2\bigr>=1.}

Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.


Характеристическая функция << Оглавление >> Модель аддитивного блуждания

Стохастический мир - простое введение в стохастические дифференциальные уравнения