Русская Википедия:Сигмоида

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Файл:Logistic-curve.png
Логистическая кривая (сигмоида)

Сигмо́ида (также сигмо́ид) — это гладкая монотонная возрастающая нелинейная функция, имеющая форму буквы «S», которая часто применяется для «сглаживания» значений некоторой величины.

Часто под сигмоидой понимают логистическую функцию

<math>\sigma(x) = \frac{1}{1 + e^{-x}}</math>.

Сигмоида ограничена двумя горизонтальными асимптотами, к которым стремится при стремлении аргумента к <math>\plusmn\infty</math>. В зависимости от соглашения, этими асимптотами могут быть Шаблон:Math = ±1 (в <math>\plusmn\infty</math>) либо Шаблон:Math = 0 в <math>-\infty</math> и Шаблон:Math = +1 в <math>+\infty</math>.

Производная сигмоиды представляет собой колоколообразную кривую с максимумом в нуле, асимптотически стремящуюся к нулю в <math>+\infty</math>.

Семейство функций класса сигмоид

Файл:Gjl-t(x).svg
Сравнение некоторых сигмоидных функций, нормализованных таким образом, чтобы производная в начале координат была равна 1

В семейство функций класса сигмоид входят такие функции, как арктангенс, гиперболический тангенс и другие функции подобного вида.

<math>f(x)= \frac{1}{1+e^{-2 \alpha x}}, \quad \alpha > 0</math>.
  • Рациональная сигмоида:
<math>f(x)= \frac{x}{|x|+ \alpha}, \quad \alpha > 0</math>.
<math>f(x)= \operatorname{arctg} x</math>.
<math>f(x)= \operatorname{th} \frac{x}{\alpha} = \frac{ e^{ \frac{x}{\alpha} } - e^{ - \frac{x}{\alpha}} }

{e^{ \frac{x}{\alpha} } + e^{ - \frac{x}{\alpha}}} </math>.

  • Гладкая ступенька N-го порядка:
<math> f(x) = \begin{cases}

\left(\int_{0}^{1} \big(1 - u^2 \big)^N \ du \right)^{-1} \int_{0}^{x} \big(1 - u^2 \big)^N \ du \quad & |x| \le 1 \\ \sgn(x) & |x| \ge 1 \\ \end{cases} \, \quad N \ge 1 </math>.

  • Корневая сигмоида:
<math> f(x) = \frac{x}{\sqrt{1+x^2}} </math>.
<math> f(x) = (1+e^{-x})^{-1} </math>.
<math> f(x) = (1+e^{-x})^{-\alpha}, \quad \alpha > 0 </math>.
<math> f(x) = \operatorname{erf}(x) = \frac{2}{\sqrt{\pi}}\int_0^x e^{-t^2} \, dt </math>.
<math> f(x) = \operatorname{gd} x = \int_{0}^{x} \frac{1}{\cosh t} \, dt = \operatorname{arctg}(\operatorname{sh} x)</math>.


Применение

Нейронные сети

Сигмоиды применяются в нейронных сетях в качестве функций активации. Они позволяют нейронам как усиливать слабые сигналы, так и не насыщаться от сильных сигналов[1].

В нейронных сетях часто используются сигмоиды, производные которых могут быть выражены через саму функцию. Это позволяет существенно сократить вычислительную сложность метода обратного распространения ошибки, сделав его применимым на практике:

<math>\sigma'(x) = (1 + \sigma(x)) \cdot (1 - \sigma(x))</math> — для гиперболического тангенса;
<math>\sigma'(x) = \sigma(x) \cdot (1 - \sigma(x))</math> — для логистической функции.

Логистическая регрессия

Логистическая функция <math>f(x) = \frac{1}{1 + e^{-x}}</math> используется в решении задач классификации с использованием логистической регрессии. Пусть решается задача классификации с двумя классами (<math>y=0</math> и <math>y=1</math>, где <math>y</math> — переменная, указывающая класс объекта). Делается предположение о том, что вероятность принадлежности объекта к одному из классов выражается через значения признаков этого объекта <math>x_1, x_2, ..., x_n</math> (действительные числа):

<math>\mathbb{P}\{y=1\mid x_1,\ldots,x_n\} = f(a_1 x_1 + \ldots + a_n x_n) = \frac{1}{1 + \exp(-a_1 x_1 - \ldots - a_n x_n)}</math>,

где <math>a_1, ..., a_n</math> — некоторые коэффициенты, требующие подбора, обычно, методом наибольшего правдоподобия.

Именно такая функция <math>f(x)</math> получается при использовании обобщённой линейной модели и предположения, что зависимая переменная <math>y</math> распределена по закону Бернулли.

См. также

Литература

Примечания

Шаблон:Примечания

Ссылки

Шаблон:Rq Шаблон:Машинное обучение