Русская Википедия:Дисперсия случайной величины

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Значения Диспе́рсия случа́йной величины́ — мера разброса значений случайной величины относительно её математического ожидания. Обозначается <math>D[X]</math> в русской литературе и <math>\operatorname{Var}(X)</math> (Шаблон:Lang-en) в зарубежной. В статистике часто употребляется обозначение <math>\sigma_X^2</math> или <math>\displaystyle \sigma^2</math>.

Квадратный корень из дисперсии, равный <math>\displaystyle \sigma</math>, называется среднеквадратическим отклонением, стандартным отклонением или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах, что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Из неравенства Чебышёва следует, что вероятность того, что значения случайной величины отстоят от математического ожидания этой случайной величины более чем на <math>k</math> стандартных отклонений, составляет менее <math>1/k^2</math>. В специальных случаях оценка может быть усилена. Так, например, как минимум в 95 % случаев значения случайной величины, имеющей нормальное распределение, удалены от её среднего не более чем на два стандартных отклонения, а в примерно 99,7 % — не более чем на три.

Определение

Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от её математического ожидания.

Пусть <math>X</math> — случайная величина, определённая на некотором вероятностном пространстве. Тогда дисперсией называется

<math>D[X] = \mathbb{E}\left[\big(X - \mathbb{E}[X]\big)^2\right], </math>

где символ <math>\mathbb{E}</math> обозначает математическое ожидание[1][2].

Замечания

Шаблон:Нет источников в разделе

  • Если случайная величина <math>X</math> дискретная, то
    <math>D[X] = \sum^{n}_{i=1} {p_i (x_i-\mathbb{E}[X])^2},</math>
    <math>D[X] = \frac{1}{2}\sum^{n}_{i=1} \sum^{n}_{j=1}{p_ip_j (x_i-x_j)^2} = \sum^{n}_{i=1} \sum^{n}_{j=i+1}{p_ip_j (x_i-x_j)^2},</math>

где <math>x_i</math> — <math>i</math>-ое значение случайной величины, <math>p_i=P(X=x_i)</math> — вероятность того, что случайная величина принимает значение <math>x_i</math>, <math>n</math> — количество значений, которые принимает случайная величина. Шаблон:Hider

  • Если случайная величина <math>X</math> непрерывна, то:
    <math>D[X] = \int\limits^{+\infty}_{-\infty} {(x-\mathbb{E}[X])^2f(x)dx}</math>
    <math>D[X] = \frac{1}{2}\int\limits^{+\infty}_{-\infty}\int\limits^{+\infty}_{-\infty} (x_2-x_1)^2{f(x_1)f(x_2)dx_1dx_2}</math>,

где <math>f(x)</math> — плотность вероятности случайной величины.

  • В силу линейности математического ожидания справедлива формула:
    <math>D[X] = \mathbb{E}[X^2] - \left(\mathbb{E}[X]\right)^2</math>
  • Дисперсия является вторым центральным моментом случайной величины.
  • Дисперсия может быть бесконечной.
  • Дисперсия может быть вычислена с помощью производящей функции моментов <math>U(t)</math>:
    <math>D[X] = \mathbb{E}[X^2] - \left(\mathbb{E}[X]\right)^2 = U(0) - \left(U'(0)\right)^2.</math>
  • Дисперсия целочисленной случайной величины может быть вычислена с помощью производящей функции последовательности.
  • Формула для вычисления смещённой оценки дисперсии случайной величины <math>X</math> по последовательности реализаций этой случайной величины: <math>X_1... X_n</math> имеет вид:
    <math> {\overline S}^2=\frac{1}{n}\sum\limits_{i=1}^n(X_i - \overline X)^2</math>, где <math>{\overline X}=\frac{1}{n} \sum\limits_{i=1}^n X_i</math> — выборочное среднее (несмещённая оценка <math>\mathbb{E}[X] </math>).
Для получения несмещённой оценки дисперсии случайной величины значение <math> {\overline S}^2</math> необходимо умножить на <math>\frac{n}{n - 1}</math>. Несмещённая оценка имеет вид:
<math> \widetilde{S}^2=\frac{1}{n-1}\sum\limits_{i=1}^n(X_i - \bar X)^2</math>

Свойства

Шаблон:Нет источников в разделе

  • Дисперсия любой случайной величины неотрицательна: <math>D[X] \geqslant 0;</math>
  • Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;
  • Если случайная величина равна константе, то её дисперсия равна нулю: <math>D[a] = 0.</math> Верно и обратное: если <math>D[X]=0,</math> то <math>X = \mathbb{E}[X]</math> почти всюду.
  • Дисперсия суммы двух случайных величин равна:
    <math>D[X + Y] = D[X] + D[Y] + 2\,\text{cov}(X, Y)</math>, где <math>\text{cov}(X, Y)</math> — их ковариация.
  • Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство:
    <math>D\left[\sum_{i=1}^n c_i X_i\right] = \sum_{i=1}^n c_i^2 D[X_i] + 2 \sum_{1 \leqslant i < j \leqslant n} c_i c_j\, \text{cov}(X_i, X_j)</math>, где <math>c_i \in \R</math>.
  • В частности, <math>D[X_1 + \ldots + X_n] = D[X_1] + \ldots + D[X_n]</math> для любых независимых или некоррелированных случайных величин, так как их ковариации равны нулю.
  • <math>D\left[aX\right] = a^2D[X] </math>
  • <math>D\left[-X\right] = D[X] </math>
  • <math>D\left[X+b\right] = D[X]</math>
  • Если <math>X = X(\omega, \tau)</math> — случайная величина от пары элементарных событий (случайная величина на декартовом произведении вероятностных пространств), то
    <math>D_{(\omega,\tau)}[X] = \mathbb{E}_{\omega}[D_{\tau}[X]] + D_{\omega}[\mathbb{E}_{\tau}[X]]</math>

Условная дисперсия

Шаблон:Нет источников в разделе Наряду с условным математическим ожиданием <math>\mathbb{E}[X|Y]</math> в теории случайных процессов используется условная дисперсия случайных величин <math>D[X|Y]</math>.

Условной дисперсией случайной величины <math>X</math> относительно случайной величины <math>Y</math> называется случайная величина:

<math>D[X|Y] = \mathbb{E}[(X-\mathbb{E}[X|Y])^2|Y] = \mathbb{E}[X^2|Y] - \mathbb{E}[X|Y]^2</math>.

Её свойства:

  • условная дисперсия относительно случайной величины <math>Y</math> является Y-измеримой случайной величиной (то есть измерима относительно сигма-алгебры, порождённой случайной величиной <math>Y</math>);
  • условная дисперсия неотрицательна: <math>D[X|Y]\geqslant 0</math>;
  • условная дисперсия <math>D[X|Y]</math> равна нулю тогда и только тогда, когда <math>X = \mathbb{E}[X|Y]</math> почти наверное, то есть тогда и только тогда, когда <math>X</math> совпадает почти наверное с некоторой Y-измеримой величиной (а именно, с <math>\mathbb{E}[X|Y]</math>);
  • обычная дисперсия также может быть представлена как условная: <math>D[X] = D[X|1]</math>;
  • если величины <math>X</math> и <math>Y</math> независимы, случайная величина <math>D[X|Y]</math> является константой, равной <math>D[X]</math>;
  • если <math>X, Y</math> — две числовые случайные величины, то
    <math>D[X] = \mathbb{E}[D[X|Y]] + D[\mathbb{E}[X|Y]],</math>
откуда, в частности, следует, что дисперсия условного математического ожидания <math>\mathbb{E}[X|Y]</math> всегда меньше или равна дисперсии исходной случайной величины <math>X</math>.

Пример

Шаблон:Нет источников в разделе Пусть случайная величина <math>\displaystyle X</math> имеет стандартное непрерывное равномерное распределение на <math>\displaystyle [0,1]</math>, то есть её плотность вероятности задана равенством

<math>

f_X(x) = \left\{ \begin{matrix} 1, & x\in [0,1] \\ 0, & x \not\in [0,1]. \end{matrix} \right.</math>

Тогда математическое ожидание квадрата случайной величины равно

<math>\mathbb{E}\left[X^2\right] = \int\limits_0^1\!x^2\, dx = \left. \frac{x^3}{3}\right\vert_0^1 = \frac{1}{3} </math>,

и математическое ожидание случайной величины равно

<math>\mathbb{E}\left[X\right] = \int\limits_0^1\! x\, dx = \left. \frac{x^2}{2}\right\vert_0^1 = \frac{1}{2}</math>

Дисперсия случайной величины равна

<math>D[X] = \mathbb{E}\left[X^2\right] - (\mathbb{E}[X])^2 = \frac{1}{3} - \left(\frac{1}{2}\right)^2 = \frac{1}{12}</math>

См. также

Примечания

Шаблон:Примечания

Литература

Шаблон:Нет иллюстрации