Русская Википедия:Неравенство Коши — Буняковского
Неравенство Коши́ — Буняко́вского связывает норму и скалярное произведение векторов в евклидовом или гильбертовом пространстве. Это неравенство эквивалентно неравенству треугольника для нормы. Частный случай неравенства Гёльдера и неравенства Йенсена[1].
Неравенство Коши — Буняковского иногда, особенно в иностранной литературе, называют неравенством Шварца и неравенством Коши — Буняковского — Шварца, хотя работы Шварца на эту тему появились только спустя 25 лет после работ Буняковского[2]. Конечномерный случай этого неравенства называется неравенством Коши и был доказан Коши в 1821 году.
Формулировка
Пусть дано линейное пространство <math>L</math> со скалярным произведением <math>\langle x,\;y\rangle</math>. Пусть <math>\|x\|</math> — норма, порождённая скалярным произведением, то есть <math>\|x\|\equiv\sqrt{\langle x,\;x\rangle},\;\forall x\in L</math>. Тогда для любых <math>x,\;y\in L</math> имеем:
- <math>|\langle x,\;y\rangle| \leqslant \|x\|\cdot\|y\|,</math>
причём равенство достигается тогда и только тогда, когда векторы <math>x</math> и <math>y</math> линейно зависимы (коллинеарны, или среди них есть нулевой).
Примеры
- Важным частным случаем, часто использующимся в теории чисел, является случай, когда один из векторов полностью состоит из единиц:
- <math>\left({ \sum \limits_{i=1}^{n} {x_i} }\right)^2 \le \left({\sum \limits_{i=1}^{n} {1}}\right) \sum \limits_{i=1}^{n} {{x_i}^2} = n \sum \limits_{i=1}^{n} {{x_i}^2}</math>
- В пространстве комплекснозначных квадратично суммируемых последовательностей <math>l^2</math> неравенство Коши — Буняковского имеет вид:
- <math>\left|\sum\limits_{k=1}^\infty x_k\bar{y}_k\right|^2\leqslant\left(\sum_{k=1}^\infty|x_k|^2\right)\cdot\left(\sum_{k=1}^\infty|y_k|^2\right),</math>
где <math>\bar{y}_k</math> обозначает комплексное сопряжение <math>y_k</math>.
- В пространстве комплексных квадратично интегрируемых функций <math>L^2(X,\;\mathcal{F},\;\mu)</math> неравенство Коши — Буняковского имеет вид:
- <math>\left|\int\limits_X f(x)\overline{g(x)}\,\mu(dx)\right|^2\leqslant\left(\int\limits_X\left|f(x)\right|^2\,\mu(dx)\right)\cdot\left(\int\limits_X\left|g(x)\right|^2\,\mu(dx)\right).</math>
- В пространстве случайных величин с конечным вторым моментом <math>L^2(\Omega,\;\mathcal{F},\;\mathbb{P})</math> неравенство Коши — Буняковского имеет вид:
- <math>\mathrm{cov}^2(X,\;Y)\leqslant\mathrm{D}[X]\cdot\mathrm{D}[Y],</math>
- где <math>\mathrm{cov}</math> обозначает ковариацию, а <math>\mathrm{D}</math> — дисперсию.
- Для двух случайных величин <math>\xi</math> и <math>\eta</math> неравенство Коши — Буняковского имеет вид:
- <math>\left [\mathbf{M} (\eta \cdot \xi) \right ]^2 \leqslant \mathbf{M}\eta^2 \cdot \mathbf{M}\xi^2.</math>
Способы доказательства
Существует лишь несколько сущностно различных подходов к доказательству неравенства. Однако, ввиду его универсальности, одни и те же приводящие к нему формальные операции можно описывать в разных терминах. Из-за этого некоторые авторы представляют неравенство как имеющее чрезвычайно много доказательств.Шаблон:Sfn
Для удобства изложения в данном разделе, когда не указано иное, описываются доказательства только для пространства конечной размерности над <math>\mathbb{R}</math>, то есть для конечных последовательностей <math>(x_1, \dots, x_n)</math>, <math>(y_1, \dots, y_n)</math>.
Комбинаторный (через перестановочное неравенство)
Случай с вектором из единиц
Пусть <math>y_1=\dots=y_n=1</math>. Раскрывая квадрат и делая замену <math>t=i-j</math>, квадрат суммы можно разбить на блоки следующим образом:
- <math>{\left({ \sum \limits_{i=1}^{n} {x_i} }\right)}^2
= \sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} {x_i x_j} = \sum \limits_{t=0}^{n-1} {\left({ \sum \limits_{j=1}^{n} {x_j x_{j+t}} }\right)}\ ,</math>
где обозначения <math>x_{n+1}, x_{n+2},\dots</math> соответствуют <math>x_1, x_2, \dots</math>. Из перестановочного неравенства для двух копий последовательности <math>(x_1, \dots, x_n)</math> и перестановок
- <math>\sigma_t(j) := ((t + j - 1) \mod{n}) + 1,\ \ \ t = 0, \dots, n-1</math>
следует, что каждая из внутренних сумм не превышает <math>\sum \limits_{i=1}^{n} {x_i^2}</math>.
Общий случай
Если все <math>y_i</math> – целые, то, раскрывая произведения <math>x_i y_i = \underbrace{x_i + \dots + x_i}_{y_i}</math> и применяя уже доказанный частный случай для получившихся <math>\sum \limits_{i=1}^{n} {y_i}</math> слагаемых, получим
- <math>\left( \sum \limits_{i=1}^{n} {x_i y_i} \right)^2
= \left( \sum \limits_{i=1}^{n} {\underbrace{x_i + \dots + x_i}_{y_i}} \right)^2 \le \left( {\sum \limits_{i=1}^{n} {y_i}} \right) \left( {\sum \limits_{i=1}^{n} {\underbrace{x_i^2 + \dots + x_i^2}_{y_i}}} \right) = \left( {\sum \limits_{i=1}^{n} {y_i}} \right) \left( {\sum \limits_{i=1}^{n} {x_i^2 y_i}} \right)\ ,</math>
Делением обоих частей на целые числа можно получить то же неравенство для рациональных <math>y_i</math>, а из непрерывности сложения и умножения следует и обобщение для произвольных вещественных <math>y_i</math>. Это утверждение в точности соответствует неравенству Коши-Буняковского для последовательностей
- <math>{x'}_i := x_i \sqrt{y_i}</math>
- <math>{y'}_i := \sqrt{y_i}</math>.
Поэтому неравенство для произвольных <math>({x'}_i)_{i=1}^{n}</math>, <math>({y'}_i)_{i=1}^{n}</math> следует из возможности обратной замены
- <math>x_i := \frac{{x'}_i}{{y'}_i}</math>
- <math>y_i := {y'}_i^2</math>.
Вероятностный (через суммирование квадратов)
Идея (на примере дисперсии)
Самая известная реализация этого метода – рассмотрение дисперсии случайной величины. Очевидно, что если величина принимает неотрицательные значения, то её математическое ожидание также будет неотрицательно, поэтому
- <math>\mathbb{E} \left[{ ({ X - \mathbb{E}[X] })^2 }\right] \ge 0</math>
для любой случайной величины <math>X</math>. Благодаря линейности математического ожидания из этого следует, что
- <math>0 \le \mathbb{E} \left[{ ( X - \mathbb{E}[X] )^2 }\right]
= \mathbb{E} \left[{ X^2 - 2 X \mathbb{E}[X] + \mathbb{E}[X]^2 }\right] = \mathbb{E}[X^2] - 2 \mathbb{E}[X] \mathbb{E}[X] + \mathbb{E}[X]^2 = \mathbb{E}[X^2] - \mathbb{E}[X]^2</math>
Пусть все <math>y_i > 0</math> и <math>B := \sum \limits_{i=1}^{n} {y_i}</math>. Для случайной величины <math>X</math>, которая принимает значение <math>x_i</math> с вероятностью <math>\frac{y_i}{B}</math>, это неравенство означает, что
- <math>\left({ \sum \limits_{i=1}^{n} {x_i \frac{y_i}{B}} }\right)^2
= \mathbb{E}[X]^2 \le \mathbb{E}[X^2] = \sum \limits_{i=1}^{n} {x_i^2 \frac{y_i}{B}} \ ,</math>
то есть
- <math>\left({ \sum \limits_{i=1}^{n} {x_i y_i} }\right)
\le B \sum \limits_{i=1}^{n} {x_i^2 y_i} = \left( {\sum \limits_{i=1}^{n} {y_i}} \right) \left({ \sum \limits_{i=1}^{n} {x_i^2 y_i} }\right) \ .</math>
Отсюда неравенство Коши-Буняковского можно получить той же заменой переменных, что и в случае с применением перестановочного неравенства.
Интерпретация и альтернативные формы
После замены переменных математическое ожидание описанной выше величины будет иметь вид
- <math>\mathbb E[X] = \sum \limits_{i=1}^{n} {\frac{x_i}{y_i} \cdot \frac{y_i^2}{\sum \limits_{j=1}^{n} {y_j^2}}}\ .</math>
Поэтому вероятностное доказательство, в сущности рассматривает сумму
- <math>\sum \limits_{i=1}^{n} { \left({
\frac{x_i}{y_i} - \sum \limits_{j=1}^{n} { \left({ \frac{x_j}{y_j} \cdot \frac{y_j^2}{\sum \limits_{k=1}^{n} {y_k^2}} }\right) } }\right)^2 \frac{y_i^2}{\sum \limits_{j=1}^{n} {y_j^2}} } \ .</math>
Из очевидной (ввиду возведения скобки в квадрат) неотрицательности этой суммы выводится соотношение между слагаемыми, получающимися при раскрытии скобки – двое из трёх таких слагаемых сокращаются в одно (различаются лишь на константу) за счёт структуры формулы. Изменяя нормировку (деление на суммы) с помощью внесения множителей под скобки и домножения константы, легко увидеть, что такой подход аналогичен использованию более наглядной суммы
- <math>\sum \limits_{i=1}^{n} {{\left({
\frac{x_i}{ \sum \limits_{j=1}^{n} {x_j y_j} } - \frac{y_i}{ \sum \limits_{j=1}^{n} {y_j^2} } }\right)}^2} \ .</math>
Неравенства с такими суммами, записанные без привязки к вероятностным определениям, остаются корректным и без условия <math>y_i > 0</math> из предыдущего раздела. В частности, для произвольного гильбертова пространства при <math>\langle{x, y}\rangle \in \mathbb{R}</math> можно рассмотреть неравенство
- <math>0
\le \left\vert\left\vert{ y - \frac{\langle{x,y}\rangle}{||x||^2} x }\right\vert\right\vert^2 \le \left\langle{ y - \frac{\langle{x,y}\rangle}{\langle{x,x}\rangle} x , y - \frac{\langle{x,y}\rangle}{\langle{x,x}\rangle} x }\right\rangle = \langle{y, y}\rangle - 2 \frac{\langle{x,y}\rangle}{\langle{x,x}\rangle} \langle{x, y}\rangle + \frac{\langle{x,y}\rangle^2}{\langle{x,x}\rangle^2} \langle{x, x}\rangle = \langle{y, y}\rangle - \frac{\langle{x,y}\rangle^2}{\langle{x,x}\rangle} \ ,</math>
а при <math>\langle{x, y}\rangle \in \mathbb{C} \setminus \mathbb{R}</math> достаточно домножить <math>x</math> на комплексное число вида <math>e^{\varphi i}, \varphi \in \mathbb{R}</math> чтобы свести всё к первому случаю.
Аналогичным способом можно использовать другую, симметричную, сумму, где после раскрытия скобки сокращаются два крайних слагаемых (полученные возведением в квадрат), а не крайнее с центральным:
- <math>\sum \limits_{i=1}^{n} {{\left({
\frac{x_i}{ \sqrt{ \sum \limits_{j=1}^{n} {x_j^2} } } - \frac{y_i}{ \sqrt{ \sum \limits_{j=1}^{n} {y_j^2} } } }\right)}^2} \ .</math>
или, что то же самое,
- <math>
\left\vert\left\vert{ \frac{x}{||x||} - \frac{y}{||y||} }\right\vert\right\vert^2 \ .</math>
Кроме вероятностной интерпретации, использование таких сумм может быть описано через оценку дискриминанта квадратного уравнения или неравенство между средним геометрическим и средним арифметическим.[3]
Прямой (через группировку множителей)
Ещё одна (впрочем, нуждающаяся в инструментарии двух предыдущих) идея состоит в представлении неравенства в виде
- <math>\left({ \sum \limits_{i=1}^{n} {x_i y_i} }\right)
\left({ \sum \limits_{j=1}^{n} {x_j y_j} }\right) = \sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} {(x_i y_j) (x_j y_i)} \le \sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} {(x_i y_j)^2} = \left({ \sum \limits_{i=1}^{n} {x_i^2} }\right) \left({ \sum \limits_{j=1}^{n} {y_j^2} }\right) \ .</math>
Такую форму можно доказать двумя способами:
- сравнивав все слагаемые за один шаг, применив перестановочное неравенство для двух копий набора <math>(x_i y_j)_{(i,j) \in [1;n]^2}</math> и перестановки <math>\sigma(i,j) := (j,i)</math>[4];
- сравнивая каждое слагаемое отдельно, применяя неравенство между средним геометрическим и средним арифметическим для двух переменных <math>a=x_i y_j,\ b=x_j y_i</math>, что по сути соответствует рассмотрению суммы квадратов вида <math>\sum \limits_{i=1}^{n} \sum \limits_{j=1}^{n} {(x_i y_j - x_j y_i)^2}</math> или нормы соответствующего вектора в тензорном произведении произвольных гильбертовых пространств.[5]
Применение случая n=2 к суммам
Неравенство можно получить с помощью индукции, шагом которой для перехода от <math>n</math> к <math>(n+1)</math>-ому слагаемому будет применение того же неравенства для двух слагаемых. Предположение индукции для последовательностей <math>(x_i)_{i=1}^{n}</math>, <math>(y_i)_{i=1}^{n}</math> даёт неравенство
- <math>
\left({ \sum \limits_{i=1}^{n} {\color{red}{x_i} \color{blue}{y_i}} }\right) + x_{n+1} y_{n+1} \le \left({ \sum \limits_{i=1}^{n} {\color{red}{x_i}^2} }\right)^{\frac{1}{2}} \left({ \sum \limits_{i=1}^{n} {\color{blue}{y_i}^2} }\right)^{\frac{1}{2}} + x_{n+1} y_{n+1} </math>
А из случая <math>n=2</math> для последовательностей <math>\left({ \left({ \sum \limits_{i=1}^{n} {{x_i}^2} }\right)^{\frac{1}{2}} , x_{n+1} }\right)</math>, <math>\left({ \left({ \sum \limits_{i=1}^{n} {{y_i}^2} }\right)^{\frac{1}{2}}, y_{n+1} }\right)</math> легко видеть, что
- <math>
{\color{red}{ \left({ \sum \limits_{i=1}^{n} {{x_i}^2} }\right)^{\frac{1}{2}} }}
{\color{blue}{ \left({ \sum \limits_{i=1}^{n} {{y_i}^2} }\right)^{\frac{1}{2}} }}
+
{\color{red}{x_{n+1}} \color{blue}{y_{n+1}}}
\le
\left({ {\color{red}{ \left({ \sum \limits_{i=1}^{n} {{x_i}^2} }\right)^{\frac{1}{2} \color{black}{\cdot 2}} }} + {\color{red}{x_{n+1}}^2} }\right)
\left({ {\color{blue}{ \left({ \sum \limits_{i=1}^{n} {{y_i}^2} }\right)^{\frac{1}{2} \color{black}{\cdot 2}} }} + {\color{blue}{y_{n+1}}^2} }\right)
=
\left({ \sum \limits_{i=1}^{n+1} {x_i^2} }\right) \left({ \sum \limits_{i=1}^{n+1} {y_i^2} }\right) </math>
Таким образом неравенство доказывается для произвольного <math>n</math> индукцией с базой <math>n=2</math>. Базу можно доказать любым из остальных способов (например, через неравенство <math>(x_1 y_2 - x_2 y_1)^2 \ge 0</math>).[6] Также для <math>n=2</math> существуют наглядные геометрические доказательства.[7][8]
Литература
Примечания
- ↑ См. доказательство 11 в Шаблон:Sfn0
- ↑ Bounjakowsky W. «Mémoires de l’Académie des sciences de St-Pétersbourg. 7 série», 1859, t. 1, № 9.
- ↑ См. доказательства 2 (при <math>x=\frac{\sum \limits_{i=1}^{n} {a_i b_i}}{\sum \limits_{i=1}^{n} {a_i^2}}</math>), 5 в Шаблон:Sfn0 для первой суммы и доказательства 3, 4, 8 там же для второй.
- ↑ См. доказательство 7 в Шаблон:Sfn0.
- ↑ См. доказательства 1, 6 (для случая <math>n=2</math>) и 12 (после раскрытия индукции, то есть суммирования различных <math>S_{n+1} - S_n</math>) в Шаблон:Sfn0.
- ↑ См. доказательство 6 в Шаблон:Sfn0.
- ↑ Обзор доказательств неравенства Коши-Буняковского Шаблон:Wayback, (см. геометрические доказательства для <math>n=2</math> на с. 15-18)
- ↑ Шаблон:Cite web
- Русская Википедия
- Страницы с неработающими файловыми ссылками
- Функциональный анализ
- Теоремы линейной алгебры
- Неравенства
- Теория вероятностей
- Теория операторов
- Теоремы функционального анализа
- Вероятностные неравенства
- Числовые неравенства
- Страницы, где используется шаблон "Навигационная таблица/Телепорт"
- Страницы с телепортом
- Википедия
- Статья из Википедии
- Статья из Русской Википедии