Русская Википедия:Многомерная случайная величина
Многомерная случайная величина или случайный вектор (математика, вероятность и статистика) - это список математических переменных, значения каждого из которых неизвестно, либо потому что значение еще не произошло, или из-за несовершенного знания о его значении. Индивидуальные переменные в случайном векторе сгруппированы вместе, потому что они являются частью единой математической системы — часто они представляют различные свойства отдельных статистических единиц. Например, пусть какое-то конкретное лицо имеет определенный возраст, рост и вес. Совокупность же этих особенностей у случайного человека из группы будет случайным вектором. Обычно каждый элемент случайного вектора - это действительное число.
Случайные вектора часто используют в качестве базовой реализации различных видов совокупности случайных величин, например, случайные матрицы, случайное дерево, случайная последовательность, случайных процессов т. д.
Более формально, многомерной случайной величиной является столбец вектора <math>\mathbf{X}=(X_1,...,X_n)^T </math> (или ее транспонированная матрица, которая представляет собой вектор-строку), компонентами которого являются скалярные значения случайных величин одном и том же вероятностном пространстве <math>(\Omega, \mathcal{F}, P)</math>, где <math>\Omega</math> это пространство элементарных событий, <math>\mathcal{F}</math> это сигма-алгебра (совокупность всех событий), и <math>P</math> есть вероятность измерения (функция, возвращающая вероятность каждого события ).
Распределение вероятностей
Шаблон:Main Каждый случайный вектор порождает вероятностную меру на <math>\mathbb{R}^n</math> с борелевской алгеброй, лежащей в основе сигма-алгебры. Эта мера также известна как совместное распределение вероятностей, совместное распределение или многомерное распределение случайного вектора.
Распределение каждой из компонент случайных величин <math>X_i</math> называются маргинальными распределениями. Условное распределение вероятностей <math>X_i</math> учитывая <math>X_j</math> является вероятностный распределением <math>X_i</math> когда <math>X_j</math> известно как конкретное значение.
Операции на случайных векторах
Случайные вектора могут быть подвергнуты тем же алгебраическим операциям как и в случае с неслучайными векторами: сложение, вычитание, умножение на скаляр, и скалярное произведение.
Аналогично, новый случайный вектор <math>\mathbf{Y}</math> можно определить, применяя аффинное преобразование <math>g\colon \mathbb{R}^n \to \mathbb{R}^n</math> для случайного вектора <math>\mathbf{X}</math>:
- <math>\mathbf{Y}=\mathcal{A}\mathbf{X}+b</math>, где <math>\mathcal{A}</math> это матрица <math>n \times n</math> и <math>b</math> это вектор состоящий из колонки <math>n \times 1</math>
Если <math>\mathcal{A}</math> обратима и вероятностная плотность <math>\textstyle\mathbf{X}</math> равна <math>f_{\mathbf{X}}</math>,тогда вероятностная плотность <math>\mathbf{Y}</math>
- <math>f_{\mathbf{Y}}(y)=\frac{f_{\mathbf{X}}(\mathcal{A}^{-1}(y-b))}{|\det\mathcal{A}|}</math>.
Математическое ожидание, ковариация и кросс-ковариация
Шаблон:Main Математическое ожидание или среднее значение случайного вектора <math>\mathbf{X}</math> фиксированный вектор <math>\operatorname{E}[\mathbf{X}]</math>, элементы которого являются ожидаемыми значениями соответствующих случайных величин.
Ковариационная матрица (Также называется дисперсионно-ковариационной матрицей) это случайный вектор <math>n \times 1</math> матрицей которого является матрица размером <math>n \times n</math> в которой (i,j)ый элемент это ковариация между i ой и j ой случайной величиной. Ковариационная матрица - это математическое ожидание, элемент за элементом, матрицы размером <math>n \times n</math> полученной умножением матриц <math>[\mathbf{X}-\operatorname{E}[\mathbf{X}]][\mathbf{X}-\operatorname{E}[\mathbf{X}]]^T</math>, где верхний индекс T относится к транспонированию указанного вектора:
- <math>\operatorname{Var}[\mathbf{X}]=\operatorname{E}[(\mathbf{X}-\operatorname{E}[\mathbf{X}])(\mathbf{X}-\operatorname{E}[\mathbf{X}])^{T}]. </math>
В дополнение к этому, <math>\mathbf{X}</math> и <math>\mathbf{Y}</math> (<math>\mathbf{X}</math> имеет <math>n</math> элементов и <math>\mathbf{Y}</math> имеет <math>p</math> элементов ) является матрицей <math>n \times p</math>
- <math>\operatorname{Cov}[\mathbf{X},\mathbf{Y}]=\operatorname{E}[(\mathbf{X}-\operatorname{E}[\mathbf{X}])(\mathbf{Y}-\operatorname{E}[\mathbf{Y}])^{T}], </math>
Где опять указанное матричное ожидание принимается поэтапно в матрице. В ней (i,j)ый элемент это ковариация между i ым элементом матрицы <math>\mathbf{X}</math> и j ым элементом матрицы <math>\mathbf{Y}.</math> Матрица кроссковариации <math>\operatorname{Cov}[\mathbf{Y},\mathbf{X}]</math> легко получается транспонированием полученной <math>\operatorname{Cov}[\mathbf{X},\mathbf{Y}]</math>.
Дополнительные свойства
Ожидание квадратичной формы
Возьмем математическое ожидание квадратичной формы в случайном векторе X следующим образом:Шаблон:Rp
- <math>\operatorname{E}(X^{T}AX) = [\operatorname{E}(X)]^{T}A[\operatorname{E}(X)] + \operatorname{tr}(AC),</math>
Где C - ковариационная матрица X, а tr - это след матрицы, то есть сумма элементов на его главной диагонали (от верхнего левого к правому нижнему). Так как квадратичная форма является скаляром, то это и ее математическое ожидание.
Доказательство: Пусть <math>\mathbf{z}</math> - случайный вектор размера <math>m \times 1</math> с <math>\operatorname{E}[\mathbf{z}] = \mu</math> и <math>\operatorname{Cov}[\mathbf{z}]= V</math> и пусть <math>A</math> - нестохастическая матрица размера <math>m \times m</math>
Тогда, основываясь на базовой формуле ковариации , если мы обозначим <math>\mathbf{z}' = \mathbf{X}</math> и <math>\mathbf{z}'A' = \mathbf{Y}</math> ( где в дальнейшем основной знак <math>'</math> обозначает транспонирование), мы видим:
- <math>\operatorname{Cov}[\mathbf{X},\mathbf{Y}] = \operatorname{E}[\mathbf{X}\mathbf{Y}']-\operatorname{E}[\mathbf{X}]\operatorname{E}[\mathbf{Y}]'</math>
Следовательно,
- <math>\begin{align}
E(XY') &= \operatorname{Cov}(X,Y)+E(X)E(Y)' \\ E(z'Az) &= \operatorname{Cov}(z',z'A')+E(z')E(z'A')' \\ &=\operatorname{Cov}(z', z'A') + \mu' (\mu'A')' \\ &=\operatorname{Cov}(z', z'A') + \mu' A \mu , \end{align}</math> что приводит нас к
- <math>\operatorname{Cov}(z', z'A')=\operatorname{tr}(AV).</math>
Это верно в связи с тем, что при трассировке без изменения конечного результата можно циклически переставлять матрицы (например, tr (AB) = tr (BA)).
Мы видим, что ковариация
- <math>\begin{align}
\operatorname{Cov}(z',z'A') &= E\left[\left(z' - E(z') \right)\left(z'A' - E\left(z'A'\right) \right)' \right] \\ &= E\left[ (z' - \mu') (z'A' - \mu' A' )' \right]\\ &= E\left[ (z - \mu)' (Az - A\mu) \right]. \end{align}</math> и затем
- <math>\left( {z - \mu } \right)'\left( {Az - A\mu } \right)</math>
является скаляром, тогда
- <math>(z - \mu)' ( Az - A\mu)= \operatorname{tr}\left[ {(z - \mu )'(Az - A\mu )} \right] = \operatorname{tr} \left[(z - \mu )'A(z - \mu ) \right]</math>
тривиально. Используя перестановку, получим:
- <math>\operatorname{tr}\left[ {(z - \mu )'A(z - \mu )} \right] = \operatorname{tr}\left[ {A(z - \mu )(z - \mu )'} \right],</math>
И, включив это в исходную формулу, получим:
- <math>\begin{align}
\operatorname{Cov} \left( {z',z'A'} \right) &= E\left[ {\left( {z - \mu } \right)' (Az - A\mu)} \right] \\ &= E \left[ \operatorname{tr}\left[ A(z - \mu )(z - \mu )'\right] \right] \\ &= \operatorname{tr} \left[ {A \cdot E \left[(z - \mu )(z - \mu )'\right] } \right] \\ &= \operatorname{tr} [A V]. \end{align}</math>
Математическое ожидание произведения двух разных квадратичных форм
Возьмем математическое ожидание произведения двух разных квадратичных форм в гауссовском случайном векторе X с нулевым средним следующим образом:Шаблон:Rp
- <math>\operatorname{E}[X^{T}AX][X^{T}BX] = 2\operatorname{tr}(ACBC) + \operatorname{tr}(AC)\operatorname{tr}(BC)</math>
Где снова C является ковариационной матрицей X. Опять же, поскольку обе квадратичные формы являются скалярами и, следовательно, их произведение является скаляром, математическое ожидание их произведения также является скаляром.
Векторный временной ряд
Эволюцию k × 1 случайного вектора <math>\mathbf{X}</math> во времени можно смоделировать как векторную авторегрессию (VAR) следующим образом:
Ссылки
Примечания