Русская Википедия:Случайный процесс

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Перевести Шаблон:К улучшению

Файл:BMonSphere.jpg
Компьютерная реализация на поверхности сферы. Винеровский процесс считается наиболее изученным и центральным стохастическим процессом в теории вероятностей.[1][2][3]

Случа́йный проце́сс (вероятностный процесс, случайная функция, стохастический процесс) в теории вероятностей — семейство случайных величин, индексированных некоторым параметром, чаще всего играющим роль времени или координаты[4][5][3].

Определение

Пусть <math>(E, \mathfrak{B})</math> — измеримое пространство, <math>T</math> множество значений параметра <math>t</math>. Функция <math>\xi = \xi(t) </math> параметра <math>t \in T</math>, значениями которой являются случайные величины <math>\xi(t) = \xi(\omega, t) </math> на пространстве элементарных событий <math>(\Omega, \mathfrak{A}, \mathbb{P})</math> в фазовом пространстве <math>(E, \mathfrak{B})</math>, называется случайным процессом в фазовом пространстве <math>(E, \mathfrak{B})</math>.[6]

Терминология

Используемые в области исследований  и прикладного применения случайных процессов классификация и терминология являются нестрогими. В частности, термин «случайный процесс» часто используется как безусловный синоним термина «случайная функция».[7] В зависимости от вида множества <math>T</math> часто применяются следующие термины.

  • Если <math>T \subset \mathbb{R}</math>, то параметр <math>t \in T</math> может интерпретироваться как время. Тогда случайная функция <math>\{X_t\}</math> называется случайным процессом. Если множество <math>T</math> дискретно, например <math> T \subset \mathbb{N}</math>, то такой случайный процесс называется случа́йной после́довательностью.
  • Если <math>T \subset \mathbb{R}^n</math>, где <math>n \geqslant 1</math>, то параметр <math> t \in T</math> может интерпретироваться как точка в пространстве, и тогда случайную функцию называют случа́йным по́лем.

Основные сведения

Шаблон:Основной источник Всевозможные совместные распределения вероятностей значений <math>\xi(t_1), ..., \xi(t_n), t_1, ..., t_n \in T </math>:

<math>P_{t_1} , ..., _{t_n} (B_1,...B_n) = P \left\{\xi(t_1)\in B_1,..., \xi(t_n)\in B_n \right\} (B_1,...B_n \in \mathfrak{B})</math>

называются конечномерными распределениями вероятностей случайного процесса <math>\xi = \xi(t) </math>.
Случайные процессы <math>\xi= \xi(t)</math> и <math>\eta= \eta(t)</math>, принимающие значение в фазовом пространстве <math>(E,\mathfrak{B})</math> называются эквивалентными, если при любом <math>t\in T</math> эквивалентны соответствующие значения <math>\xi(t)= \xi(\omega, t)</math> и <math>\eta(t)= \eta(\omega, t)</math>.

При каждом фиксированном <math>\omega \in \Omega</math> функция <math>\xi(t)= \xi(\omega, t)</math> параметра <math>t</math> со значениями в фазовом пространстве <math>(E, \mathfrak{B})</math> называется Шаблон:Видимый якорь или Шаблон:Видимый якорь случайного процесса <math>\xi= \xi(t)</math>. Случайный процесс <math>\xi= \xi(t)</math> называется непосредственно заданным, если каждый элементарный исход описывается соответствующей траекторией <math> x = x(t)</math> в функциональном пространстве <math>E = E^T </math> всех функций на множестве <math>T </math> со значениями в фазовом пространстве <math>(E, \mathfrak{B})</math> ; точнее, если <math> \Omega = X</math> и <math>\sigma </math>-алгебра <math>\mathfrak{A}</math> порождается всевозможными цилиндрическими множествами <math> {x(t_1)\in B_1, ..., x(t_n) \in B_n}</math>, где <math> t_1, ..., t_n \in T </math> и <math> B_1,...B_n \in \mathfrak{B}</math>, а значения <math>\xi(t) = \xi(x, t)</math> имеют вид <math>\xi(x, t) = x(t)</math>, <math> x\in X</math>. Любому случайному процессу можно поставить в соответствие непосредственно заданный случайный процесс с теми же самыми конечномерный распределениями. Для каждого согласованного семейства конечномерных распределений вероятностей <math>P_{t_1} , ..., _{t_n} (B_1,...B_n) </math> (<math> t_1, ..., t_n \in T, B_1,...B_n \in \mathfrak{B}) </math> таких, что <math>P_t = P_t(B), t\in T </math>, являются плотными мерами в фазовом топологическом пространстве <math>(E, \mathfrak{B})</math>, существует непосредственно заданный случайный процесс <math>\xi= \xi(t)</math> с такими же конечномерными распределениями вероятностей.

Ковариационная функция. Пусть <math>\xi= \xi(t)</math> действительный или комплексный случайный процесс на множестве <math>T</math>, имеющий вторые моменты: <math> E|\xi(t)|^2 < \infty</math>. Значения случайного процесса <math>\xi= \xi(t)</math> можно рассматривать как элементы гильбертова пространства <math>L^2(\Omega)</math> — пространства всех случайных величин <math>\eta</math>, <math> E|\eta(t)|^2 < \infty</math>, со скалярным произведением

<math>({\eta}_1, {\eta}_2) = E{\eta}_1 \overline{\eta}_2</math>.

Важнейшими характеристиками такого случайного процесса <math>\xi(t)</math> являются его математическое ожидание

<math>A(t) = E \xi(t) = ( \xi(t), 1)</math>

и ковариационная функция

<math>B(s, t) = E{\xi(s)} \overline{\xi(t)} = (\xi(s), \xi(t))</math>.

Вместо ковариационной функции может применятся корреляционная функция <math>B(s, t) = E{\xi(s)} \overline{\xi(t)} - A(s)\overline{A(t)} </math>, являющуюся ковариационной функцией процесса <math> \xi(t) - A(t) </math> с нулевым математическим ожиданием.
При равенстве аргументов (<math> s = t</math>) корреляционная функция равна дисперсии случайного процесса

<math>B(s, s) = E(\xi(s) - A(s))( \overline{\xi(s)-A(s)}) = D(s)</math>.

Функция <math>B(s, t)</math> двух переменных <math>s</math> и <math> t </math> является ковариационной функцией некоторого случайного процесса <math>\xi(t)</math>, <math> E|\xi(t)|^2 < \infty</math>, тогда и только тогда, когда она для всех <math> n= 1, 2, ... </math> удовлетворяет следующему условию положительной определенности:

<math>\sum_{k=1}^n\sum_{j=1}^n{B(t_k, t_j)c_k}\overline{c_j }\geqslant 0</math>

для любых <math>t_1, t_2, ... t_n\in T </math> и любых комплексных чисел <math> c_1, c_2..., c_n </math>.

Классификация

  • Случайный процесс <math>X(t)</math> называется процессом дискретным во времени, если система, в которой он протекает, меняет свои состояния только в моменты времени <math>\;t_1, t_2, \ldots</math>, число которых конечно или счётно. Случайный процесс называется процессом с непрерывным временем, если переход из состояния в состояние может происходить в любой момент времени.
  • Случайный процесс называется процессом с непрерывными состояниями, если значением случайного процесса является непрерывная случайная величина. Случайный процесс называется случайным процессом с дискретными состояниями, если значением случайного процесса является дискретная случайная величина:
  • Случайный процесс называется стационарным, если все многомерные законы распределения зависят только от взаимного расположения моментов времени <math>\;t_1, t_2, \ldots, t_n</math>, но не от самих значений этих величин. Другими словами, случайный процесс называется стационарным, если его вероятностные закономерности неизменны во времени. В противном случае, он называется нестационарным.
  • Случайная функция называется стационарной в широком смысле, если её математическое ожидание и дисперсия постоянны, а АКФ зависит только от разности моментов времени, для которых взяты ординаты случайной функции. Понятие ввёл А. Я. Хинчин.
  • Случайный процесс называется процессом со стационарными приращениями определённого порядка, если вероятностные закономерности такого приращения неизменны во времени. Такие процессы были рассмотрены Ягломом[8].
  • Если ординаты случайной функции подчиняются нормальному закону распределения, то и сама функция называется нормальной.
  • Случайные функции, закон распределения ординат которых в будущий момент времени полностью определяется значением ординаты процесса в настоящий момент времени и не зависит от значений ординат процесса в предыдущие моменты времени, называются марковскими.
  • Случайный процесс называется процессом с независимыми приращениями, если для любого набора <math>t_1, t_2, \ldots, t_n</math>, где <math>n>2</math>, а <math>t_1<t_2<\ldots<t_n</math>, случайные величины <math>(X_{t_2}-X_{t_1})</math>, <math>(X_{t_3}-X_{t_2})</math>, <math>\ldots</math>, <math>(X_{t_n}-X_{t_{n-1}})</math> независимы в совокупности.
  • Если при определении моментных функций стационарного случайного процесса операцию усреднения по статистическому ансамблю можно заменить усреднением по времени, то такой стационарный случайный процесс называется эргодическим.
  • Среди случайных процессов выделяют импульсные случайные процессы.
  • Ветвящийся случайный процесс может описывать явления, связанные с размножением, делением или превращениями объектов.

Примеры

  • <math>\{X_n\}_{n \in \mathbb{N}}</math>, где <math>\;X_i \sim \mathrm{N}(0,1)</math> называется стандартной гауссовской (нормальной) случайной последовательностью.
  • Пусть <math>f\colon\mathbb{R} \to \mathbb{R}</math>, и <math>Y</math> — случайная величина. Тогда
<math>X_t(\omega) = f(t) \cdot Y(\omega)</math>

является случайным процессом.

См. также

Примечания

Шаблон:Примечания

Литература

Шаблон:Вс

  1. Шаблон:Книга
  2. Шаблон:Книга
  3. 3,0 3,1 Шаблон:Книга
  4. Шаблон:Книга
  5. Шаблон:Книга
  6. Прохоров Ю. В., Розанов Ю. А. Теория вероятностей (Основные понятия. Предельные теоремы. Случайные процессы) — М.: Главная редакция физико-математической литературы изд-ва «Наука», 1973. — 496 стр.
  7. Шаблон:Cite web
  8. Шаблон:Статья