Русская Википедия:Стохастическая аппроксимация

Материал из Онлайн справочника
Версия от 03:08, 18 сентября 2023; EducationBot (обсуждение | вклад) (Новая страница: «{{Русская Википедия/Панель перехода}} '''Стохастическая аппроксимация''' — рекуррентный метод построения состоятельной последовательности оценок решений уравнений регрессии и экстремумов функций регрес...»)
(разн.) ← Предыдущая версия | Текущая версия (разн.) | Следующая версия → (разн.)
Перейти к навигацииПерейти к поиску

Стохастическая аппроксимациярекуррентный метод построения состоятельной последовательности оценок решений уравнений регрессии и экстремумов функций регрессии в задачах непараметрического оценивания. В биологии, химии, медицине используется для анализа результатов опытов. В теории автоматического управления применяется как средство решения задач распознавания, идентификации, обучения и адаптации[1]. Основоположниками метода стохастической аппроксимации являются Кифер, Вольфовиц[2], Робинс, Монро [3].

Поиск решения уравнения регрессии

Пусть каждому значению параметра <math>x</math> соответствует измеряемая опытным путём случайная величина <math>y</math> с функцией распределения <math>F(y|x)</math>, причем математическое ожидание величины <math>y</math> при фиксированном параметре <math>x</math> <math>m(y|x)=m(x)</math>. Требуется найти решение уравнения регрессии <math>m(x)=\alpha</math>. Предполагается, что решение уравнения регрессии единственно, а функции <math>F(y|x)</math> и <math>m(x)</math> неизвестны.

Процедура стохастической аппроксимации для получения оценок корня <math>\hat{x}</math> уравнения регрессии <math>m(\hat{x})=\alpha</math> заключается в использовании полученной на основании опыта обучающей выборки измеряемых случайных величин <math>y_{1}, ..., y_{n}</math>.

Оценка <math>\hat{x_{n+1}}</math> искомого корня находится на основе предыдущей оценки <math>\hat{x_{n}}</math> с помощью обучающего значения измеренной случайной величины <math>y_{n}</math> с помощью соотношения <math>\hat{x_{n+1}} = \hat{x_{n}} + a_{n}(\alpha - y_{n})</math>, где <math>n \geqslant 1</math>, <math>\hat{x_{1}}</math> - произвольное число[3].

Если последовательность коэффициентов <math>a_{n}</math> удовлетворяет условиям <math>a_{n} > 0</math>, <math>\sum_{n=1}^{\infty} a_{n} = \infty</math>, <math>\sum_{n=1}^{\infty} a_{n}^{2} < \infty</math>, то при <math>n \to \infty</math> оценка <math>\hat{x_{n+1}}</math> стремится по вероятности к корню уравнения <math>m(\hat{x})=\alpha</math>.

При некоторых дополнительных требованиях к функции регрессии <math>m(x)</math> оценки <math>\hat{x_{n+1}}</math> могут сходится в среднеквадратическом к решению уравнения регрессии Шаблон:Sfn[4].

Примеры

  • Твёрдость сплава меди с железом <math>y</math> зависит от времени <math>x</math>, в течение которого сплав подвергается воздействию высокой температуры. В этом случае измеряемой случайной величиной является твёрдость сплава <math>y</math>, а задача состоит в определении времени <math>\hat{x}</math>, при котором сплав имеет заданную твёрдость <math>y = \alpha</math>Шаблон:Sfn.

Поиск экстремума функции регрессии

Оценка <math>\hat{x_{n+1}}</math> экстремального значения функции регрессии находится на основе предыдущей оценки <math>\hat{x_{n}}</math> и обучающих значений измеренной случайной величины <math>y_{2n}</math> и <math>y_{2n-1}</math> с помощью соотношения <math>\hat{x_{n+1}} = \hat{x_{n}} + \frac{a_{n}}{c_{n}}(y_{2n}-y_{2n-1})</math>, где <math>n \geqslant 1</math>, <math>\hat{x_{1}}</math> - произвольное число, <math>a_{n}</math> - последовательность положительных чисел, а последовательности <math>y_{2n}</math> и <math>y_{2n-1}</math> независимы и соответствуют значениям параметра <math>\hat{x_{n}}+c_{n}</math> и <math>\hat{x_{n}}-c_{n}</math>[2].

Если последовательности коэффициентов <math>a_{n}</math> и <math>c_{n}</math> удовлетворяют условиям <math>a_{n} > 0</math>, <math>c_{n} > 0</math>, <math>c_{n} \to 0</math> при <math>n \to \infty</math>, <math>\sum_{n=1}^{\infty} a_{n} = \infty</math>, <math>\sum_{n=1}^{\infty} a_{n}c_{n} < \infty</math>, <math>\sum_{n=1}^{\infty} (\frac{a_{n}}{c_{n}})^{2} < \infty</math>, то при <math>n \to \infty</math> оценка <math>\hat{x_{n+1}}</math> стремится по вероятности к экстремальному значению функции регрессии.

При некоторых дополнительных требованиях к функции регрессии <math>m(x)</math> оценки <math>\hat{x_{n+1}}</math> могут сходится в среднеквадратическом к экстремуму функции регрессии[4].

Примеры

  • Урожайность участка земли <math>y</math> зависит от количества удобрений <math>x</math>. В этом случае измеряемой случайной величиной является урожайность <math>y</math>, а задача состоит в определении количества удобрений <math>\hat{x}</math>, при котором участок земли имеет макcимальную урожайностьШаблон:Sfn.

Примечания

Шаблон:Примечания

Литература

  1. Цыпкин Я.З. “Адаптация, обучение и самообучение в автоматических системах”, // Автоматика и телемеханика. — 1966. — № 1. — С. 23–61. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at10991
  2. 2,0 2,1 Кiefer J., Wolfowitz J. Stochastic Estimation of the Maximum of a Regression Function // Ann. Math. Statistics. — 1952. — v. 23. — № 3.
  3. 3,0 3,1 Robbins Н., Monro S. A stochastic approximation method // Annals of Math. Stat. — 1951. — v. 22. — № 1. — С. 400—407.
  4. 4,0 4,1 Логинов Н. В. “Методы стохастической аппроксимации” // Автоматика и телемеханика. — 1966. — № 4. — С. 185–204. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at11080