Русская Википедия:Нормальное распределение

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Вероятностное распределение\; \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2} \right)</math>

|cdf        = <math>\Phi(\frac{x-\mu}{\sigma}) = \frac{1}{2} \left[ 1 + \operatorname{erf} \left( \frac{x-\mu}{\sqrt{2\sigma^2}} \right) \right] </math>
|mean       = <math>\mu</math>
|median     = <math>\mu</math>
|mode       = <math>\mu</math>
|variance   = <math>\sigma^2</math>
|skewness   = <math>0</math>
|kurtosis   = <math>0</math>
|entropy    = <math>\ln\left(\sigma\sqrt{2\,\pi\,e}\right)</math>
|mgf        = <math>M_X\left(t\right)= \exp\left(\mu\,t+\frac{\sigma^2 t^2}{2}\right)</math>
|char       = <math>\phi_X\left(t\right)=\exp\left(\mu\,i\,t-\frac{\sigma^2 t^2}{2}\right)</math>

}}

Норма́льное распределе́ние[1][2], также называемое распределением Гаусса или Гаусса — Лапласа[3], или колоколообразная кривая — непрерывное распределение вероятностей с пиком в центре и симметричными боковыми сторонами, которое в одномерном случае задаётся функцией плотности вероятности, совпадающей с функцией Гаусса:

<math>

f(x) = \frac{1}{\sigma \sqrt{2\pi} } e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} </math>,

где параметр <math>\mu</math> — математическое ожидание (среднее значение), медиана и мода распределения, а параметр <math>\sigma</math> — среднеквадратическое отклонение, <math>\sigma^2</math> — дисперсия распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений, которое принадлежит экспоненциальному классу распределений[4]. Многомерный случай описан в статье «Многомерное нормальное распределение».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием <math>\mu=0</math> и стандартным отклонением <math>\sigma=1.</math>

Общие сведения

Если величина является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то центрированное и нормированное распределение такой величины при достаточно большом числе слагаемых стремится к нормальному распределению.

Это следует из центральной предельной теоремы теории вероятностей. В окружающем нас мире часто встречаются величины, значение которых определяется совокупностью многих независимых факторов. Этот факт, а также то, что распределение считалось типичным, обычным, привели к тому, что в конце XIX века стал использоваться термин «нормальное распределение». Нормальное распределение играет заметную роль во многих областях науки, например в математической статистике и статистической физике.

Случайная величина, имеющая нормальное распределение, называется нормальной, или гауссовской, случайной величиной.

Определения

Стандартное нормальное распределение

Наиболее простой случай нормального распределения — стандартное нормальное распределение — частный случай, когда <math>\mu=0</math> и <math>\sigma = 1.</math> Его плотность вероятности равна:

<math>\varphi(x) = \frac 1{\sqrt{2\pi}}e^{- \frac 12 x^2}.</math>

Множитель <math>\frac {1}{\sqrt{2\pi}}</math> в выражении обеспечивает условие нормировки интеграла <math>\int\limits_{-\infty}^{+\infty} \varphi(x)\,dx = 1</math>[5]. Поскольку множитель <math>\frac 12</math> в экспоненте обеспечивает дисперсию равную единице, то и стандартное отклонение равно 1. Функция симметрична в точке <math>x=0,</math> её значение в ней максимально и равно <math>\frac {1}{\sqrt{2\pi}}.</math> Точки перегиба функции: <math>x=+1</math> и <math>x=-1.</math>

Гаусс называл стандартным нормальным распределение с <math>\sigma^2 = 1/2,</math> то есть:

<math>\varphi(x) = \frac{e^{-x^2}}{\sqrt\pi}.</math>

Нормальное распределение с параметрами μ, σ

Каждое нормальное распределение — это вариант стандартного нормального распределения, область значений которого растягивается множителем <math>\sigma</math> (стандартное отклонение) и переносится на <math>\mu</math> (математическое ожидание):

<math>f(x \mid \mu, \sigma^2) =\frac 1 \sigma \varphi\left(\frac{x-\mu} \sigma \right).</math>

<math>\mu, \sigma</math> являются параметрами нормального распределения. Плотность вероятности должна нормироваться <math>\frac {1}{\sigma},</math> так что интеграл равен 1.

Если <math>Z</math> — стандартная нормальная случайная величина, то величина <math>X=\sigma Z + \mu</math> будет иметь нормальное распределение с математическим ожиданием <math>\mu</math> и стандартным отклонением <math>\sigma.</math> Наоборот, если <math>X</math> — нормальная величина с параметрами <math>\mu</math> и <math>\sigma^2,</math> то <math>Z=\frac{X-\mu}{\sigma}</math> будет иметь стандартное нормальное распределение.

Если в экспоненте плотности вероятности раскрыть скобки и учитывать, что <math>1 = \ln e</math>, то:

<math>f(x) = \frac{1}{\sigma \sqrt{2\pi} } e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}=e^{-\frac{1}{2}\left(2 \ln \sigma + \ln2\pi +\left(\frac{x-\mu}{\sigma}\right)^2\right)}=e^{-\frac{1}{2}\left(\frac{x^2}{\sigma^2} - 2\frac{\mu x}{\sigma^2}+ 2\ln\sigma + \ln2\pi + \frac{\mu^2}{\sigma^2} \right)}.</math>

Таким образом, плотность вероятности каждого нормального распределения представляет собой экспоненту квадратичной функции:

<math>f(x) = e^{a x^2 + b x + c},</math>
где <math>a=-\frac{1}{2\sigma^2},\ b=\frac{\mu}{\sigma^2},\ c=-\left( \ln\sigma +\frac{1}{2}\ln2\pi +\frac{1}{2}\frac{\mu^2}{\sigma^2} \right) .</math>

Отсюда можно выразить среднее значение как <math>\mu = -\frac{b}{2a},</math> а дисперсию как <math>\sigma^2=-\frac{1}{2a}.</math> Для стандартного нормального распределения <math>a=-1/2,</math> <math>b=0</math> и <math>c=-\frac{1}{2}\ln2\pi.</math>

Обозначение

Плотность вероятности стандартного нормального распределения (с нулевым средним и единичной дисперсией) часто обозначается греческой буквой <math>\phi</math> (фи)Шаблон:Sfn. Также достаточно часто используется альтернативная формы греческой буквы фи <math>\varphi</math>.

Нормальное распределение часто обозначается <math>N(\mu,\sigma^2),</math> или <math>\mathcal{N}(\mu,\sigma^2)</math>[6]. Если случайная величина <math>X</math> распределена по нормальному закону со средним <math>\mu</math> и вариацией <math>\sigma^2,</math> то пишут:

<math>X \sim \mathcal{N}(\mu,\sigma^2).</math>

Функция распределения

Функция распределения стандартного нормального распределения (нормальное интегральное распределение) обычно обозначается заглавной греческой буквой <math>\Phi</math> (фи), в России называется функцией Лапласа и представляет собой интеграл:

<math>\Phi(x) = \frac 1 {\sqrt{2\pi}} \int\limits_{-\infty}^{x} e^{-x^2/2} \, dx.</math>

С ней связана функция ошибок (интеграл вероятности) <math>\operatorname{erf}(x),</math> дающий вероятность того, что нормальная случайная величина со средним 0 и вариацией 1/2 попадёт в отрезок <math>[-x, x]</math>:

<math>\operatorname{erf}(x) = \frac 2 {\sqrt\pi} \int\limits_0^x e^{-x^2} \, dx.</math>

Эти интегралы не выражаются в элементарных функциях и называются специальными функциями. Многие их численные приближения известны. См. ниже.

Функции связаны, в частности, соотношением:

<math> \Phi(x) = \frac{1}{2} \left[1 + \operatorname{erf}\left( \frac x {\sqrt 2} \right) \right]</math>.

Нормальное распределение с плотностью <math>f,</math> средним <math>\mu</math> и отклонением <math>\sigma</math> имеет следующую функцию распределения:

<math>F(x) = \Phi\left(\frac{x-\mu} \sigma \right) = \frac{1}{2} \left[1 + \operatorname{erf}\left(\frac{x-\mu}{\sigma \sqrt 2 }\right)\right] .</math>

Можно использовать функцию <math>Q(x) = 1 - \Phi(x)</math> — она даст вероятность того, что значение стандартной нормальной случайной величины <math>X</math> превысит <math>x</math>:

<math>P(X>x)</math>.

График стандартной нормальной функции распределения <math>\Phi</math> имеет 2-кратную вращательную симметрию относительно точки (0;1/2), то есть <math>\Phi(-x) = 1 - \Phi(x).</math> Её неопределенный интеграл равен:

<math>\int \Phi(x)\, dx = x\Phi(x) + \varphi(x) + C.</math>

Функция распределения стандартной нормальной случайной величины может быть разложена с помощью метода интегрирования по частям в ряд:

<math>\Phi(x)=\frac{1}{2} + \frac{1}{\sqrt{2\pi}}\cdot e^{-x^2/2} \left[x + \frac{x^3}{3} + \frac{x^5}{3\cdot 5} + \cdots + \frac{x^{2n+1}}{(2n+1)!!} + \cdots\right] ,</math>

где знак <math>!!</math> означает двойной факториал.

Асимптотическое разложение функции распределения для больших <math>x</math> может быть также произведено интегрированием по частям.

Стандартное отклонение

Шаблон:См. также

Файл:68–95–99.7-stddev-ru.svg
Правило 68-95-99,7.
Для нормального распределения количество значений, отличающихся от среднего на число, меньшее чем одно стандартное отклонение, составляют 68,27 % выборок. В то же время количество значений, отличающиеся от среднего на два стандартных отклонения, составляют 95,45 %, а на три стандартных отклонения — 99,73 %.

Около 68 % значений из нормального распределения находятся на расстоянии не более одного стандартного отклонения σ от среднего; около 95 % значений лежат расстоянии не более двух стандартных отклонений; и 99,7 % не более трёх. Этот факт является частным случаем правила 3 сигм для нормальной выборки.

Более точно, вероятность получить нормальное число в интервале между <math>\mu-n\sigma</math> и <math>\mu+n\sigma</math> равна:

<math>F(\mu+n\sigma) - F(\mu-n\sigma) =</math>
<math>\Phi(n)-\Phi(-n) = \operatorname{erf} \left(\frac{n}{\sqrt{2}}\right).</math>

С точностью до 12 значащих цифр значения для <math>n=1,2,\ldots , 6</math> приведены в таблице[7]:

<math>n</math> <math>p= F(\mu+n\sigma) - F(\mu-n\sigma)</math> <math>1-p</math> <math>\frac{1}{1-p}</math> OEIS
1 0,682689492137 0,317310507863
3,15148718753
Шаблон:OEIS2C
2 0,954499736104 0,045500263896
21,9778945080
Шаблон:OEIS2C
3 0,997300203937 0,002699796063
370,398347345
Шаблон:OEIS2C
4 0,999936657516 0,000063342484
15787.1927673
5 0,999999426697 0,000000573303
1744277,89362
6 0,999999998027 0,000000001973
506797345,897

Свойства

Моменты

Моментами и абсолютными моментами случайной величины <math>X</math> называются математические ожидания случайных величин <math>X^p</math> и <math>\left|X\right|^p,</math> соответственно. Если математическое ожидание случайной величины <math>\mu=0,</math> то эти параметры называются центральными моментами. В большинстве случаев представляют интерес моменты для целых <math>p.</math>

Если <math>X</math> имеет нормальное распределение, то для неё существуют (конечные) моменты при всех <math>p</math> с действительной частью больше −1. Для неотрицательных целых <math>p</math> центральные моменты таковы:

<math>
  \mathbb{E}\left[X^p\right] =
     \begin{cases}
       0 & p=2n+1, \\
       \sigma^p\,\left( p-1 \right)!! & p=2n.
     \end{cases}
 </math>

Здесь <math>n</math> — натуральное число, а запись <math>(p-1)!!</math> означает двойной факториал числа <math>p-1,</math> то есть (поскольку <math>p-1</math> в данном случае нечётно) произведение всех нечётных чисел отШаблон:NbspШаблон:Math до <math>p-1.</math>

Центральные абсолютные моменты для неотрицательных целых <math>p</math> таковы:

<math>
   \mathbb{E}\left[\left|X\right|^p\right] =
     \sigma^p\,\left(p-1\right)!! \cdot \left.\begin{cases}
       \sqrt{\frac{2}{\pi}} & p=2n+1, \\
       1 & p=2n.
     \end{cases}\right\}
   = \sigma^p \cdot \frac{2^{\frac{p}{2}}\Gamma\left(\frac{p+1}{2}\right)}{\sqrt{\pi}}.
 </math>

Последняя формула справедлива также для произвольных <math>p > -1</math>.

Преобразование Фурье и характеристическая функция

Преобразование Фурье нормальной плотности вероятности <math>f</math> с математическим ожиданием <math>\mu</math> стандартным отклонением <math>\sigma</math> равно[8]:

<math>\hat f(t) = \int\limits_{-\infty}^\infty f(x)e^{-itx} \, dx = e^{i\mu t- \frac12\sigma^2 t^2},</math>
где <math>i</math> есть мнимая единица.

Если математическое ожидание <math>\mu=0,</math> то первый множитель равен 1, и преобразование Фурье, с точностью до константы есть нормальная плотность вероятности на частотных интервалах, с математическим ожиданием равным 0 и стандартным отклонением <math>1/\sigma.</math> В частности, стандартное нормальное распределение <math>\varphi</math> есть собственная функция от преобразования Фурье.

В теории вероятности, преобразование Фурье плотности распределения действительной случайной величины <math>X</math> близко связано с характеристической функцией <math>\varphi_X(t)</math> этой величины, которая определена как математическое ожидание от <math>e^{itX}</math> и является функцией вещественной переменной <math>t</math> (частотный параметр преобразования Фурье). Определение может быть распространено и на комплексную переменную <math>t</math>[9]. Соотношение записывается так:

<math>\varphi_X(t) = \hat f(-t).</math>

Бесконечная делимость

Нормальное распределение является бесконечно делимым.

Если случайные величины <math>X_1</math> и <math>X_2</math> независимы и имеют нормальное распределение с математическими ожиданиями <math>\mu_1</math> и <math>\mu_2</math> и дисперсиями <math>\sigma_1^2</math> и <math>\sigma_2^2</math> соответственно, то <math>X_1+X_2</math> также имеет нормальное распределение с математическим ожиданием <math>\mu_1+\mu_2</math> и дисперсией <math>\sigma_1^2+\sigma_2^2.</math>

Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

Максимальная энтропия

Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину[10][11].

Правило трёх сигм для гауссовской случайной величины

Шаблон:Основная статья

Файл:Standard deviation diagram (decimal comma).svg
График плотности вероятности нормального распределения и процент попадания случайной величины на отрезки, равные среднеквадратическому отклонению.

Правило трёх сигм (<math>3\sigma</math>) — практически все значения нормально распределённой случайной величины лежат в интервале:

<math>\left(\mu-3\sigma;\mu+3\sigma\right),</math>
где <math>\mu=\mathbb{E}\xi</math> — математическое ожидание и параметр нормальной случайной величины.

Более точно — приблизительно с вероятностью 0,9973 значение нормально распределённой случайной величины лежит в указанном интервале.

Моделирование нормальных псевдослучайных величин

При компьютерном моделировании, особенно при применении метода Монте-Карло, желательно использовать величины, распределенные по нормальному закону. Многие алгоритмы дают стандартные нормальные величины, так как нормальную величину <math>X \sim N(\mu, \sigma^2)</math> можно получить как:

<math>X = \mu + \sigma Z,</math>
где Z — стандартная нормальная величина.

Алгоритмы также используют различные преобразования равномерных величин. Простейшие приближённые методы моделирования основываются на центральной предельной теореме. Если сложить достаточно большое количество независимых одинаково распределённых величин с конечной дисперсией, то сумма будет иметь распределение, близкое к нормальному. Например, если сложить Шаблон:Num стандартно равномерно распределённых случайных величин, то распределение суммы будет приближённо нормальным.

Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса — Мюллера. Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

Также существует алгоритм Зиккурат, который работает даже быстрее преобразования Бокса — Мюллера. Тем не менее, сложнее в реализации, но его применение оправдано в случаях, когда требуется генерирование очень большого числа неравномерно распределённых случайных чисел.

Нормальное распределение в природе и приложениях

Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

  • отклонение при стрельбе;
  • погрешности измерений (однако погрешности некоторых измерительных приборов имеют иное распределение);
  • некоторые характеристики живых организмов в популяции.

Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например биномиальное и пуассоновское. Этим распределением моделируются многие недетерминированные физические процессы[12].

Многомерное нормальное распределение используется при исследовании многомерных случайных величин (случайных векторов). Одним из многочисленных примеров таких приложений является исследование параметров личности человека в психологии и психиатрии.

Связь с другими распределениями

  • Нормальное распределение является распределением Пирсона типа XIШаблон:Sfn.
  • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши[13]. То есть, если случайная величина <math>X</math> представляет собой отношение <math>X = Y/Z</math> (где <math>Y</math> и <math>Z</math> — независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
  • Если <math>z_1, \ldots, z_k</math> — совместно независимые стандартные нормальные случайные величины, то есть <math>z_i \sim N \left( 0, 1 \right),</math> то случайная величина <math>x = z_1^2 + \ldots + z_k^2</math> имеет распределение хи-квадрат с Шаблон:MathШаблон:Nbspстепенями свободы.
  • Если случайная величина <math>X</math> подчинена логнормальному распределению, то её натуральный логарифм имеет нормальное распределение. То есть, если <math>X \sim \mathrm{LogN} \left( \mu, \sigma^2 \right),</math> то <math>Y = \ln \left( X \right) \sim \mathrm{N} \left( \mu, \sigma^2 \right).</math> И наоборот, если <math>Y \sim \mathrm{N} \left( \mu, \sigma^2 \right),</math> то <math>X = \exp \left( Y \right) \sim \mathrm{LogN} \left( \mu, \sigma^2 \right).</math>
  • Если <math>X_1, X_2, ..., X_n</math> независимые нормально распределенные случайные величины с математическими ожиданиями <math>\mu</math> и дисперсиями <math>\sigma^2,</math> то их выборочное среднее независимо от выборочного стандартного отклонения[14], а отношение следующих двух величин будет иметь t-распределение с <math>\text{n}-1</math>степенями свободы:
<math>t = \frac{\overline X - \mu}{S/\sqrt{n}} = \frac{\frac{1}{n}(X_1+\cdots+X_n) - \mu}{\sqrt{\frac{1}{n(n-1)}\left[(X_1-\overline X)^2+\cdots+(X_n-\overline X)^2\right]}} \sim t_{n-1}.</math>
  • Если <math>X_1, X_2, ..., X_n,</math> <math>Y_1, Y_2, ..., Y_n</math> независимые стандартные нормальные случайные величины, то отношение нормированных сумм квадратов будет иметь распределение Фишера с (<math>\text{n},</math> <math>\text{m}</math>) степенями свободы[15]:
<math>F = \frac{\left(X_1^2+X_2^2+\cdots+X_n^2\right)/n}{\left(Y_1^2+Y_2^2+\cdots+Y_m^2\right)/m} \sim F_{n,m}.</math>
  • Отношение квадратов двух стандартных нормальных случайных величин имеет распределение Фишера со степенями свободы <math>\left( 1, 1 \right).</math>

История

Впервые нормальное распределение как предел биномиального распределения при <math>p = \tfrac{1}{2}</math> появилось в 1738 году во втором издании работы Муавра Шаблон:Iw[16]. Это было первое доказательство частного случая центральной предельной теоремы. В 1809 году Гаусс в сочинении «Теория движения небесных тел» ввёл это распределение как возникающее в результате многократных измерений движения небесных тел. Однако Гаусс вывел формулу для действительных случайных величин из принципа достижения максимума совместной плотности всех измерений в точке с координатами, равными среднему всех измерений. Этот принцип впоследствии подвергался критике. В 1812 году Лаплас в теореме Муавра — Лапласа обобщил результат Муавра для произвольного биномиального распределения, то есть для сумм одинаково распределённых независимых бинарных величин[3].

См. также

Примечания

Шаблон:Примечания

Литература

Ссылки

Шаблон:Вс Шаблон:Список вероятностных распределений Шаблон:Перевести Шаблон:Rq

  1. Шаблон:Книга
  2. Шаблон:Книга
  3. 3,0 3,1 Шаблон:Книга
  4. Шаблон:Книга
  5. Доказательство см. Гауссов интеграл
  6. Шаблон:Harvtxt
  7. Шаблон:Cite web
  8. Шаблон:Harvtxt
  9. Шаблон:Harvtxt
  10. Шаблон:Книга
  11. Шаблон:Статья
  12. Шаблон:Книга
  13. Шаблон:Публикация
  14. Шаблон:Статья
  15. Шаблон:Книга
  16. The doctrine of chances; or, a method of calculating the probability of events in play, L., 1718, 1738, 1756; L., 1967 (репродуцир. изд.); Miscellanea analytica de scriebus et quadraturis, L., 1730.