Многомерное распределение Гаусса — различия между версиями
WikiSysop (обсуждение | вклад) |
WikiSysop (обсуждение | вклад) |
||
Строка 12: | Строка 12: | ||
Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения | Рассмотрим <math>n</math> независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения | ||
+ | |||
<math>\left<\varepsilon_i \varepsilon_j\right></math> | <math>\left<\varepsilon_i \varepsilon_j\right></math> | ||
+ | |||
равно единице для совпадающих индексов и нулю — для различных. Подобная матрица будет обозначаться символом Кронекера: | равно единице для совпадающих индексов и нулю — для различных. Подобная матрица будет обозначаться символом Кронекера: | ||
Строка 19: | Строка 21: | ||
Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>: | Вычислим, например, ковариационную матрицу случайных величин <math>\textstyle \eta_\alpha</math>: | ||
− | :<center><math> \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = ( | + | :<center><math> \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = (\mathbf{S}\mathbf{S}^T)_{\alpha\beta}. </math></center> |
При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы. | При суммировании с символом Кронекера <math>\textstyle \delta_{ij}</math> в сумме остаются только слагаемые с <math>\textstyle i=j</math>. Поэтому одна из сумм (по <math>\textstyle j</math>) и символ Кронекера исчезают, и остаётся только суммационный индекс <math>\textstyle i</math>. Затем вводится ''новая'' матрица <math>\textstyle S^T_{i\beta}=S_{\beta i}</math> с переставленными индексами. Подобная операция называется ''транспонированием''. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы. | ||
− | Матрица <math>\textstyle | + | Матрица <math>\textstyle \mathbf{S}</math> может имеет обратную <math>\textstyle \mathbf{S}^{-1}</math>, если выполняется уравнение: |
− | :<center><math> | + | :<center><math>\mathbf{S}\cdot \mathbf{S}^{-1} = \mathbf{S}^{-1} \cdot \mathbf{S} = \mathbf{1},</math></center> |
− | где <math>\textstyle | + | где <math>\textstyle \mathbf{1}=\delta_{ij}</math> — единичная матрица (символ Кронекера). Так, для определённого выше вектора <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> можно записать: |
− | :<center><math>\eta = | + | :<center><math>\eta =\mathbf{S}\cdot \epsilon\;\;\;\;\;\;\;\;=>\;\;\;\;\;\;\;\;\epsilon=\mathbf{S}^{-1}\cdot \eta,</math></center> |
− | где мы умножили левую и правую части на <math>\textstyle | + | где мы умножили левую и правую части на <math>\textstyle \mathbf{S}^{-1}</math>. |
<math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> — стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них () при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' (): | <math>\textstyle \bullet</math> Пусть <math>\textstyle \epsilon = (\varepsilon_1,...,\varepsilon_n)</math> — стандартные независимые гауссовые случайные величины <math>\textstyle \varepsilon_i\sim N(0,1)</math>, а величины <math>\textstyle \eta=(\eta_1,...,\eta_n)</math> получены из них () при помощи перемешивающих коэффициентов <math>\textstyle S_{\alpha\beta}</math>. Среднее значение произведения <math>\textstyle \eta_\alpha\eta_\beta</math> определяется ''матрицей дисперсий'' (): | ||
− | :<center><math>D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\; | + | :<center><math>D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{D} = \mathbf{S}\cdot \mathbf{S}^{T},</math></center> |
которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. | которая является ''симметричной'': <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. | ||
− | Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle | + | Найдём производящую функцию для случайных величин <math>\textstyle \eta</math>. Для этого введём вектор <math>\textstyle \mathbf{b}=(b_1,...,b_n)</math> и вычислим среднее экспоненты от скалярного произведения <math>\textstyle \mathbf{b}\cdot \eta=b_1\eta_1+...+b_n\eta_n</math> (по <math>\textstyle n</math> ''нет'' суммы!): |
− | :<center><math>\left\langle e^{ | + | :<center><math>\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle = \left\langle e^{\mathbf{b}\cdot \mathbf{S}\cdot \varepsilon}\right\rangle = \left\langle e^{ b_{i} S_{i1} \varepsilon_1}\right\rangle \cdot ...\cdot\left\langle e^{b_{i} S_{in} \varepsilon_n}\right\rangle = e^{\frac{1}{2}\{(b_{i} S_{i1})^2+...+(b_{i} S_{in})^2\}}.</math></center> |
Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида: | Мы воспользовались независимостью величин <math>\textstyle \varepsilon_i</math>, разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида: | ||
− | :<center><math>(b_{i} S_{i1})^2+...+(b_{i} S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = | + | :<center><math>(b_{i} S_{i1})^2+...+(b_{i} S_{in})^2 = b_{i} S_{ik}\, b_{j} S_{jk} = b_i \,S_{ik}\, S^T_{kj}\,b_j = \mathbf{b}\cdot \mathbf{S}\cdot \mathbf{S}^T\cdot \mathbf{b}.</math></center> |
Поэтому окончательно производящая функция равна: | Поэтому окончательно производящая функция равна: | ||
− | :<center><math>\phi( | + | :<center><math>\phi(\mathbf{b})=\left\langle e^{\mathbf{b}\cdot \eta}\right\rangle = e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}.</math></center> |
− | Взяв частные производные по <math>\textstyle b_\alpha</math>, несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl<\eta_\alpha\eta_\beta\bigr></math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle | + | Взяв частные производные по <math>\textstyle b_\alpha</math>, несложно найти среднее от любого произведения <math>\textstyle \eta_\alpha</math>. Проверим, что среднее <math>\textstyle \bigl<\eta_\alpha\eta_\beta\bigr></math> равно <math>\textstyle D_{\alpha\beta}</math>. Возьмём производную производящей функции по <math>\textstyle b_\alpha</math>. Учитывая, что <math>\textstyle \mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}</math> равно <math>\textstyle b_i D_{ij} b_j</math>, имеем: |
− | :<center><math>\frac{\partial \phi( | + | :<center><math>\frac{\partial \phi(\mathbf{b}) }{\partial b_\alpha} = \frac{1}{2}\, (D_{\alpha j} b_j + b_i D_{i\alpha} ) \, \phi(\mathbf{b}) = D_{\alpha i} b_i \, \phi(\mathbf{b}),</math></center> |
где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная: | где во втором равенстве мы воспользовались тем, что <math>\textstyle D_{\alpha\beta}=D_{\beta\alpha}</math>. Аналогично берётся вторая производная: | ||
− | :<center><math>\frac{\partial^2 \phi( | + | :<center><math>\frac{\partial^2 \phi(\mathbf{b}) }{\partial b_\alpha \partial b_\beta} = D_{\alpha \beta} \, \phi(\mathbf{b}) + D_{\alpha i} b_i \, D_{\beta j} b_j \,\phi(\mathbf{b}).</math></center> |
− | Полагая <math>\textstyle | + | Полагая <math>\textstyle \mathbf{b}=0</math> и учитывая, что |
− | :<center><math>\frac{\partial^2 \left\langle e^{ | + | :<center><math>\frac{\partial^2 \left\langle e^{\mathbf{b}\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{\mathbf{b}=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,</math></center> |
приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr></math>. В качестве упражнения предлагается проверить следующее тензорное выражение: | приходим к соотношению <math>\textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr></math>. В качестве упражнения предлагается проверить следующее тензорное выражение: | ||
Строка 67: | Строка 69: | ||
:<center><math>\bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center> | :<center><math>\bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.</math></center> | ||
− | Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется матрицей дисперсии | + | Таким образом, среднее любых степеней <math>\textstyle \eta</math> полностью определяется матрицей дисперсии \mathbf{D}. |
<math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>: | <math>\textstyle \bullet</math> Найдём теперь явный вид совместной плотности вероятности для величин <math>\textstyle \eta_1,...,\eta_n</math>. Запишем сначала плотность вероятности для <math>\textstyle \varepsilon_1,...,\varepsilon_n</math>: | ||
Строка 75: | Строка 77: | ||
При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан: | При замене переменных <math>\textstyle \eta_\alpha = S_{\alpha\beta}\varepsilon_\beta</math> в интеграле необходимо изменить элемент объёма интегрирования <math>\textstyle d^n\varepsilon=d\varepsilon_1...d\varepsilon_n</math>, умножив его на якобиан: | ||
− | :<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det | + | :<center><math>d^n \eta = \det \left|\frac{\partial \eta_\alpha}{\partial \varepsilon_\beta}\right|\,d^n\varepsilon = (\det\mathbf{S})\, d^n\varepsilon.</math></center> |
− | Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det | + | Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то <math>\textstyle \det\mathbf{D}=(\det\mathbf{S})^2</math> и, следовательно: |
− | :<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot | + | :<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,\eta\cdot \mathbf{D}^{-1}\cdot \eta}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center> |
− | где в показателе экспоненты подставлены <math>\textstyle \epsilon= | + | где в показателе экспоненты подставлены <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot \eta</math>: |
− | :<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot { | + | :<center><math>\epsilon^2 = S^{-1}_{i\alpha}\eta_\alpha\,S^{-1}_{i\beta}\eta_\beta = \eta_\alpha {S^{-1}}^{T}_{\alpha i}\,S^{-1}_{i\beta}\eta_\beta =\eta\cdot {\mathbf{S}^{-1}}^{T}\cdot\mathbf{S}^{-1}\cdot \eta = \eta \cdot (\mathbf{S}\cdot \mathbf{S}^T)^{-1}\cdot \eta</math></center> |
− | и использовано свойство обратных матриц <math>\textstyle ( | + | и использовано свойство обратных матриц <math>\textstyle (\mathbf{A}\cdot \mathbf{b})^{-1}= \mathbf{b}^{-1}\cdot \mathbf{A}^{-1}</math> (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, <math>\textstyle P(\eta_1,...,\eta_n)</math> нормирована на единицу, поэтому, учитывая выражение для производящей функции <math>\textstyle \bigl<e^{\mathbf{b}\cdot \eta}\bigr></math>, можно записать значение следующего <math>\textstyle n</math>-мерного гауссового интеграла: |
− | :<center><math> \int\limits^{\infty}_{-\infty} e^{ | + | :<center><math> \int\limits^{\infty}_{-\infty} e^{\mathbf{b}\cdot \eta - \frac{1}{2}\eta\cdot \mathbf{D}^{-1}\cdot \eta} \,d^n\eta = (2\pi)^{n/2} \,\sqrt{\det\mathbf{D}}\; e^{\frac{1}{2}\,\mathbf{b}\cdot \mathbf{D}\cdot \mathbf{b}}. </math></center> |
− | До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl<\eta\bigr>= | + | До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: <math>\textstyle \bigl<\eta\bigr>=\mathbf{S}\cdot \bigl<\epsilon\bigr>=0</math>. Можно к ним прибавить некоторый постоянный вектор <math>\textstyle \bar{\eta}_\alpha</math>, который будет иметь смысл средних значений <math>\textstyle \eta_\alpha</math>: |
:<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center> | :<center><math>\eta_\alpha = \bar{\eta}_\alpha + S_{\alpha\beta}\varepsilon_\beta.</math></center> | ||
Строка 95: | Строка 97: | ||
Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид: | Тогда общее <math>\textstyle n</math>-мерное гауссово распределение принимает вид: | ||
− | :<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot | + | :<center><math>P(\eta_1,...,\eta_n) = \frac{e^{-\frac{1}{2}\,(\eta-\bar{\eta})\cdot \mathbf{D}^{-1}\cdot (\eta-\bar{\eta})}}{(2\pi)^{n/2}\sqrt{\det\mathbf{D}}},</math></center> |
− | где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon= | + | где в плотность вероятности <math>\textstyle P(\varepsilon_1,...,\varepsilon_n)</math> подставлено <math>\textstyle \epsilon=\mathbf{S}^{-1}\cdot (\eta-\bar{\eta})</math>. |
<math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>: | <math>\textstyle \bullet</math> Рассмотрим в качестве примера случай <math>\textstyle n=2</math>. Запишем элементы симметричной матрицы <math>\textstyle D_{\alpha\beta}</math> при помощи трёх независимых констант <math>\textstyle \sigma_1</math>, <math>\textstyle \sigma_2</math> и <math>\textstyle \rho</math>: | ||
− | :<center><math> | + | :<center><math>\mathbf{D} = \begin{pmatrix} \sigma^2_1 & \rho\,\sigma_1\sigma_2 \ \rho\,\sigma_1\sigma_2 & \sigma^2_2 \ \end{pmatrix}.</math></center> |
− | Несложно проверить, что определитель <math>\textstyle | + | Несложно проверить, что определитель <math>\textstyle \mathbf{D}</math> равен |
− | :<center><math>\det | + | :<center><math>\det\mathbf{D} = \sigma^2_1\sigma^2_2 (1-\rho^2),</math></center> |
− | а обратная к <math>\textstyle | + | а обратная к <math>\textstyle \mathbf{D}</math> матрица имеет вид: |
− | :<center><math> | + | :<center><math>\mathbf{D}^{-1} = \frac{1}{\det \mathbf{D}}\, \begin{pmatrix} \sigma^2_2 & -\rho\,\sigma_1\sigma_2 \ -\rho\,\sigma_1\sigma_2 & \sigma^2_1 \ \end{pmatrix}.</math></center> |
В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом: | В результате совместная плотность вероятности для <math>\textstyle \eta_1,\eta_2</math> может быть записана следующим образом: | ||
Строка 117: | Строка 119: | ||
где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> — относительные отклонения <math>\textstyle \eta_i</math> от своих средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> — коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>. | где <math>\textstyle x_i=(\eta_i-\bar{\eta}_i)/\sigma_i</math> — относительные отклонения <math>\textstyle \eta_i</math> от своих средних <math>\textstyle \bar{\eta}_i</math>. Параметры <math>\textstyle \sigma_i</math> являются волатильностями: <math>\textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1</math>, а <math>\textstyle \rho</math> — коэффициент корреляции: <math>\textstyle \rho=\left\langle x_1 x_2 \right\rangle </math>. | ||
− | Матрица <math>\textstyle | + | Матрица <math>\textstyle \mathbf{D}</math> является симметричной, тогда как <math>\textstyle \mathbf{S}</math> в общем случае — нет. Поэтому <math>\textstyle \mathbf{D}</math> зависит от трёх параметров, а <math>\textstyle \mathbf{S}</math> — от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц <math>\textstyle \mathbf{S}</math>. Так, можно записать: |
− | :<center><math> | + | :<center><math>\mathbf{S} = \begin{pmatrix} \sigma_1\cos \alpha & \sigma_1\sin\alpha \ \sigma_2\sin \beta & \sigma_2\cos\beta \ \end{pmatrix},</math></center> |
где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>. | где <math>\textstyle \rho=\sin(\alpha+\beta)</math>. Понятно, что возможны различные комбинации "углов" <math>\textstyle \alpha</math> и <math>\textstyle \beta</math>, дающие один и тот же корреляционный коэффициент <math>\textstyle \rho</math>. | ||
− | Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle | + | Если <math>\textstyle \alpha=-\beta</math>, то <math>\textstyle \rho=0</math>, и <math>\textstyle \mathbf{D}=\mathbf{S}\mathbf{S}^{T}</math> является диагональной, а при <math>\textstyle \sigma_1=\sigma_2=1</math> — единичной. Матрицу <math>\textstyle \mathbf{S}</math>, удовлетворяющую уравнению <math>\textstyle \mathbf{S}\mathbf{S}^{T}=\mathbf{1}</math>, называют ''ортогональной''. |
Если <math>\textstyle \alpha=0</math>, <math>\textstyle \rho=\sin\beta</math>, <math>\textstyle \sigma_1=\sigma_2=1</math>, то | Если <math>\textstyle \alpha=0</math>, <math>\textstyle \rho=\sin\beta</math>, <math>\textstyle \sigma_1=\sigma_2=1</math>, то | ||
− | :<center><math> | + | :<center><math> \mathbf{S} = \begin{pmatrix} 1 & 0 \ \rho & \sqrt{1-\rho^2} \ \end{pmatrix}, \;\;\;\;\;\;\;\;\;\;\;\;\; \mathbf{D} = \begin{pmatrix} 1 & \rho \ \rho & 1 \ \end{pmatrix}. </math></center> |
Подобная смесь переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> : | Подобная смесь переводит независимые стандартные случайные величины <math>\textstyle \varepsilon_1,\varepsilon_2\sim N(0,1)</math> в скоррелированные, так что <math>\textstyle \eta_1,\eta_2\sim N(0,1)</math> : |
Версия 14:36, 21 января 2010
Характеристическая функция << | Оглавление | >> Модель аддитивного блуждания |
---|
При изучении систем стохастических уравнений мы будем активно использовать матричные и тензорные обозначения. Для сокращения операции умножения матриц используется два типа соглашений:
По повторяющемуся индексу всегда подразумевается суммирование, и знак суммы опускается. Выше таковым является индекс "" во втором равенстве. Повторяющиеся индексы, по которым проводится суммирование, называют "немыми". В процессе вычислений их можно переобозначить в любую букву, которая ещё не используется в выражении. Третье равенство в уравнении () — это матричная форма той же суммы, в которой матрица и вектор перемножаются вообще без упоминания индексов и знака суммирования.
Рассмотрим независимых гауссовых случайных величин, имеющих нулевое среднее и единичную дисперсию. Среднее значение их произведения
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \left<\varepsilon_i \varepsilon_j\right>}
равно единице для совпадающих индексов и нулю — для различных. Подобная матрица будет обозначаться символом Кронекера:
Вычислим, например, ковариационную матрицу случайных величин :
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \bigl<\eta_\alpha\eta_\beta\bigr> = S_{\alpha i} S_{\beta j} \bigl<\varepsilon_i\varepsilon_j\bigr> = S_{\alpha i} S_{\beta j} \delta_{ij} = S_{\alpha i} S_{\beta i} = S_{\alpha i} S^{T}_{i\beta} = (\mathbf{S}\mathbf{S}^T)_{\alpha\beta}. }
При суммировании с символом Кронекера в сумме остаются только слагаемые с . Поэтому одна из сумм (по ) и символ Кронекера исчезают, и остаётся только суммационный индекс . Затем вводится новая матрица с переставленными индексами. Подобная операция называется транспонированием. В табличном представлении она соответствует перестановке местами строк и столбцов матрицы.
Матрица может имеет обратную , если выполняется уравнение:
где — единичная матрица (символ Кронекера). Так, для определённого выше вектора можно записать:
где мы умножили левую и правую части на .
Пусть — стандартные независимые гауссовые случайные величины , а величины получены из них () при помощи перемешивающих коэффициентов . Среднее значение произведения определяется матрицей дисперсий ():
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\mathbf{D} = \mathbf{S}\cdot \mathbf{S}^{T},}
которая является симметричной: .
Найдём производящую функцию для случайных величин . Для этого введём вектор и вычислим среднее экспоненты от скалярного произведения (по нет суммы!):
Мы воспользовались независимостью величин , разбив среднее произведения на произведение средних, и формулой (), стр. \pageref{aver_exp_gauss}. В показателе экспоненты стоит матричное выражение вида:
Поэтому окончательно производящая функция равна:
Взяв частные производные по , несложно найти среднее от любого произведения . Проверим, что среднее Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<\eta_\alpha\eta_\beta\bigr>} равно . Возьмём производную производящей функции по . Учитывая, что равно , имеем:
где во втором равенстве мы воспользовались тем, что . Аналогично берётся вторая производная:
Полагая и учитывая, что
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \frac{\partial^2 \left\langle e^{\mathbf{b}\cdot \eta}\right\rangle }{\partial b_\alpha \partial b_\beta }\Big|_{\mathbf{b}=0} = \bigl<\eta_\alpha\eta_\beta\bigr>,}
приходим к соотношению Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle D_{\alpha\beta}=\bigl<\eta_\alpha\eta_\beta\bigr>} . В качестве упражнения предлагается проверить следующее тензорное выражение:
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \bigl<\eta_\alpha\eta_\beta\eta_\gamma\eta_k\bigr> =D_{\alpha\beta}D_{\gamma k} + D_{\alpha\gamma}D_{\beta k} + D_{\alpha k}D_{\beta \gamma}.}
Таким образом, среднее любых степеней полностью определяется матрицей дисперсии \mathbf{D}.
Найдём теперь явный вид совместной плотности вероятности для величин . Запишем сначала плотность вероятности для :
При замене переменных в интеграле необходимо изменить элемент объёма интегрирования , умножив его на якобиан:
Так как при транспонировании матрицы её определитель не изменяется, а определитель произведения матриц равен произведению их определителей, то и, следовательно:
где в показателе экспоненты подставлены :
и использовано свойство обратных матриц (см. стр. \pageref{math_mat_tensor}). Как и любая плотность вероятности, нормирована на единицу, поэтому, учитывая выражение для производящей функции Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<e^{\mathbf{b}\cdot \eta}\bigr>} , можно записать значение следующего -мерного гауссового интеграла:
До сих пор мы работали с перемешанными величинами, имеющими нулевое среднее: Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<\eta\bigr>=\mathbf{S}\cdot \bigl<\epsilon\bigr>=0} . Можно к ним прибавить некоторый постоянный вектор , который будет иметь смысл средних значений :
Тогда общее -мерное гауссово распределение принимает вид:
где в плотность вероятности подставлено .
Рассмотрим в качестве примера случай . Запишем элементы симметричной матрицы при помощи трёх независимых констант , и :
Несложно проверить, что определитель равен
а обратная к матрица имеет вид:
В результате совместная плотность вероятности для может быть записана следующим образом:
где — относительные отклонения от своих средних . Параметры являются волатильностями: Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \textstyle \bigl<(\eta_1-\bar{\eta}_1)^2\bigr>=D_{11}=\sigma^2_1} , а — коэффициент корреляции: .
Матрица является симметричной, тогда как в общем случае — нет. Поэтому зависит от трёх параметров, а — от четырёх, и одной и той же матрице дисперсии может соответствовать несколько различных матриц . Так, можно записать:
где . Понятно, что возможны различные комбинации "углов" и , дающие один и тот же корреляционный коэффициент .
Если , то , и является диагональной, а при — единичной. Матрицу , удовлетворяющую уравнению , называют ортогональной.
Если , , , то
Подобная смесь переводит независимые стандартные случайные величины в скоррелированные, так что :
Невозможно разобрать выражение (синтаксическая ошибка): {\displaystyle \left\{ \begin{array}{l} \eta_1 =\;\; \varepsilon_1\ \eta_2 = \rho\,\varepsilon_1+ \sqrt{1-\rho^2}\;\varepsilon_2\ \end{array} \right. \;\;\;\;\;=>\;\;\;\;\; \bigl<\eta_1\cdot\eta_2\bigr> = \rho,\;\;\;\;\;\;\bigl<\eta^2_1\bigr>=\bigl<\eta^2_2\bigr>=1.}
Это позволяет, например, при компьютерном моделировании генерить скоррелированные величины при помощи нескоррелированных.
Характеристическая функция << | Оглавление | >> Модель аддитивного блуждания |
---|
Стохастический мир - простое введение в стохастические дифференциальные уравнения