Русская Википедия:Численные методы линейной алгебры
Численные методы линейной алгебры (прикладная линейная алгебра) — это методы приближенного решения задач из области вычислительной математики и линейной алгебры. Целью дисциплины является разработка и анализ алгоритмов для численного решения матричных задач. Наиболее важными задачами являются решение систем линейных алгебраических уравнений и вычисление собственных значений.
Численная линейная алгебра исследует то, как можно использовать матричные операции для создания компьютерных алгоритмов, которые эффективно дают приблизительные ответы на задачи непрерывной математики. Численная линейная алгебра является видом линейной алгебры и представляет собой область численного анализа. Компьютеры используют арифметику с плавающей запятой и не могут точно представлять иррациональные данные, поэтому, когда компьютерный алгоритм применяется к матрице данных, он иногда может увеличить Шаблон:Iw между числом, хранящимся в компьютере, и истинным числом, приближением которого оно является. Численная линейная алгебра использует свойства векторов и матриц для разработки эффективных алгоритмов, которые минимизируют ошибку, вносимую компьютером.
Численная линейная алгебра направлена на решение задач непрерывной математики с использованием компьютеров конечной точности, поэтому ее приложения в естественных и общественных науках столь же обширны, как и приложения непрерывной математики. Она часто является фундаментальной частью инженерных и вычислительных проблем, таких как обработка изображений и сигналов, электросвязь, Шаблон:Iw, материаловедение, структурная биология, интеллектуальный анализ данных, биоинформатика и гидродинамика. Особенно широко используются матричные методы в методах конечных разностей, методах конечных элементов и моделировании дифференциальных уравнений. Отмечая широкое применение численной линейной алгебры, Шаблон:Iw и Дэвид Бау, III утверждают, что она «столь же фундаментальна для математических наук, как исчисление и дифференциальные уравнения»[1]Шаблон:Rp, хотя это сравнительно небольшая область[2]. Поскольку многие свойства матриц и векторов также применимы к функциям и операторам, числовую линейную алгебру также можно рассматривать как тип функционального анализа, в котором особое внимание уделяется практическим алгоритмам[1]Шаблон:Rp.
Основные задачи в численной линейной алгебре включают получение матричных разложений, таких как сингулярное разложение, QR-разложение, LU-разложение или собственное разложение, которые затем можно использовать для решения общих задач линейной алгебры, таких как решение систем линейных уравнений, определение местоположения собственных значений или оптимизация методом наименьших квадратов. Основная задача численной линейной алгебры — разработка алгоритмов, которые не вносят ошибок при применении к реальным данным на компьютере с конечной точностью, часто достигается с помощью Шаблон:Iw.
История
Численная линейная алгебра была разработана Джоном фон Нейманом, Аланом Тьюрингом, Джеймсом Х. Уилкинсоном, Шаблон:Iw, Шаблон:Iw и Шаблон:Iw, для применения самых ранних компьютеров к задачам непрерывной математики, таким как баллистические задачи и задачи на решение системы дифференциальных уравнений в частных производных[2]. Первая серьезная попытка свести к минимуму вычислительную ошибку при применении алгоритмов к реальным данным была сделана Джоном фон Нейманом и Германом Голдстайном в 1947 году[3]. Эта область расширялась по мере того, как технологии всё чаще позволяли исследователям решать сложные задачи на чрезвычайно больших высокоточных матрицах, а некоторые численные алгоритмы приобретали известность по мере того, как такие технологии, как параллельные вычисления, позволили применить практический подход к научным проблемам[2].
Разложения матриц
Блочная матрица
Шаблон:Main Для многих задач прикладной линейной алгебры полезно рассматривать матрицу как объединённый набор векторов-столбцов. Например, при решении линейной системы <math>x = A^{-1}b</math>, вместо нахождения <math>x</math> как умножения <math>A^{-1}</math> и <math>b</math>, лучше представить <math>x</math> как вектор коэффициентов в линейном разложении <math>b</math> в базисе, образованном столбцами <math>A</math>[1]Шаблон:Rp. Представление о матрицах как об объединённом наборе столбцов практично для целей матричных алгоритмов, в связи с тем, что матричные алгоритмы часто содержат два вложенных цикла: один по столбцам матрицы <math>A</math>, а другой по строкам матрицы <math>A</math>. Например, для матриц <math>A^{m \times n}</math> и векторов <math>x^{n \times 1}</math> и <math>y^{m \times 1}</math>, можно использовать разделение столбцов для вычисления <math>Ax+y</math> как
for j = 1:n
for i = 1:m
y(i) = A(i,j)x(j) + y(i)
end
end
Сингулярное разложение
Шаблон:Main Сингулярное разложение матрицы <math>A^{m \times n} = U \Sigma V^\ast</math>, где <math>U</math> и <math>V</math> унитарные матрицы, а <math>\Sigma</math> диагональная. Элементы диагональной матрицы <math>\Sigma</math> называются сингулярными числами матрицы <math>A</math>. Так как сингулярные числа являются квадратными корнями из собственных значений матрицы <math>AA^\ast</math>, существует тесная связь между разложением по сингулярным значениям и разложениями по собственным значениям. Это означает, что большинство методов вычисления разложения по сингулярным числам аналогичны методам собственных значений[1]Шаблон:Rp; возможно, самый распространенный метод включает преобразование Хаусхолдера[1]Шаблон:Rp.
QR-разложение
Шаблон:Main QR-разложение матрицы <math>A^{m \times n}</math> представляется произведением матрицы <math>Q^{m \times m}</math> на <math>R^{m \times n}</math> таким, что <math>A = QR</math>, где <math>Q</math> — ортогональная матрица и <math>R</math> — верхняя треугольная матрица[1]Шаблон:Rp[4]Шаблон:Rp. Два основных алгоритма для вычисления QR-разложения: процесс Грама-Шмидта и преобразование Хаусхолдера. QR-разложение часто используется для задач, связанных с методом наименьших квадратов, и задач на собственные значения (с помощью итеративного QR-алгоритма).
LU-разложение
Шаблон:Main LU-разложение матрицы <math>A</math> состоит из нижней треугольной матрицы <math>L</math> и верхней треугольной матрицы <math>U</math> такими, что <math>A = LU</math>. Матрица <math>U</math> находится с помощью метода Гаусса, которая включает в себя умножения <math>A</math> слева на набор матриц <math>M_1,\ldots,M_{n-1}</math> для формирования <math>M_{n-1} \cdots M_1 A = U</math>, откуда <math>L = M_1^{-1} \cdots M_{n-1}^{-1}</math>[1]Шаблон:Rp[4]Шаблон:Rp.
Спектральное разложение
Шаблон:Main Спектральное разложение матрицы <math>A^{m \times m} = X \Lambda X^{-1}</math>, где столбцы <math>X</math> — собственные векторы матрицы <math>A</math>, и <math>\Lambda</math> представляет собой диагональную матрицу, диагональные элементы которой — соответствующие собственные значения матрицы <math>A</math>[1]Шаблон:Rp. Не существует прямого метода нахождения спектрального разложения произвольной матрицы: поскольку невозможно написать программу, которая находит точные корни произвольного многочлена за конечное время, любой алгоритм нахождения собственных значений обязательно должен быть итерационным[1]Шаблон:Rp.
Алгоритмы
Метод Гаусса
Шаблон:Main С точки зрения числовой линейной алгебры, метод Гаусса — это процедура разложения матрицы <math>A</math> в LU-разложение, которую метод Гаусса выполняет путем умножения <math>A</math> слева на последовательность матриц <math>L_{m-1} \cdots L_2 L_1 A = U</math> до тех пор, пока <math>U</math> не станет верхней треугольной, а <math>L</math> не станет нижней треугольной, где <math>L \equiv L_1^{-1}L_2^{-1} \cdots L_{m-1}^{-1}</math>[1]Шаблон:Rp. Наивные программы для метода Гаусса, как известно, очень вычислительно неустойчивы и дают огромные ошибки при применении к матрицам со многими значащими цифрами[2]. Самое простое решение — ввести Шаблон:Iw, что даёт модифицированный стабильный алгоритм метода Гаусса[1]Шаблон:Rp.
Решения линейных систем
Шаблон:Main Численная линейная алгебра обычно рассматривает матрицы как объединённый набор векторов-столбцов. Традиционный подход состоит в том, чтобы решить линейную систему <math>x = A^{-1}b</math>, чтобы получить <math>x</math> как произведение <math>A^{-1}</math> и <math>b</math>. Вместо этого численная линейная алгебра интерпретирует <math>x</math> как вектор коэффициентов линейного разложения <math>b</math> в базисе, образованном столбцами <math>A</math>[1]Шаблон:Rp.
Для решения систем линейных уравнений могут применяться матричные уравнения. В зависимости от характеристик матрицы <math>A</math> и векторов <math>x</math> и <math>b</math>, одни разложения могут быть проще, чем другие. можно использовать множество различных разложений, в зависимости от характеристик матрицы <math>A</math> и векторов <math>x</math> и <math>b</math>, что может значительно упростить получение одного разложения по сравнению с другими. Если <math>A=QR</math> — QR-разложение матрицы <math>A</math>, то <math>Rx = Q^\ast b</math>[1]Шаблон:Rp. Если <math>A = X\Lambda X^{-1}</math> — спектральное разложение матрицы <math>A</math>, то мы стремимся найти <math>b</math> такой, что <math>b=Ax</math>, с <math>b^\prime = X^{-1}b</math> и <math>x^\prime = X^{-1}x</math>. Откуда получаем <math>b^\prime = \Lambda x^\prime</math>[1]Шаблон:Rp. Наконец, если <math>A=LU</math> — LU-разложение матрицы <math>A</math>, то <math>Ax=b</math> можно решить с помощью треугольных матриц <math>Ly=b</math> и <math>Ux = y</math>[1]Шаблон:Rp[4]Шаблон:Rp.
Оптимизация методом наименьших квадратов
Шаблон:Main Подход, связанный с матричными разложениями, предлагает ряд способов решения линейной системы <math>r=b-Ax</math>, где мы стремимся минимизировать <math>r</math>, как в модели линейной регрессии. QR-алгоритм решает эту проблему, сначала определяя <math>y= Ax</math>, а затем вычисляя тонкое QR-разложенние <math>A</math> и переходит к уравнению <math>\widehat{R}x = \widehat{Q}^\ast b</math>. Эта верхнетреугольная система может быть решена относительно <math>b</math>. Аналогичный алгоритм для решения МНК можно получить при помощи SVD-разложения. Вычисляя тонкое SVD-разложение <math>A = \widehat{U}\widehat{\Sigma}V^\ast</math>, а затем вычисляя вектор <math>\widehat{U}^\ast b</math>, мы сводим задачу наименьших квадратов к простой диагональной системе[1]Шаблон:Rp. Тот факт, что решения методом наименьших квадратов могут быть получены с помощью QR-разложения и SVD-разложения, означает, что в дополнение к классическому Шаблон:Iw решения задач наименьших квадратов, эти задачи также могут быть решены методами, включающими алгоритм Грама-Шмидта и методы Хаусхолдера.
Обусловленность и вычислительная устойчивость
Рассмотрим функцию <math>f: X \to Y</math>, где <math>X</math> — нормированное векторное пространство данных и <math>Y</math> — нормированное векторное пространство решений. Для некоторой точки <math>x \in X</math> задача называется плохо обусловленной, если малое возмущение в <math>x</math> приводит к большому изменению значения <math>f(x)</math>. Мы можем количественно определить это, определив число обусловленности, которое показывает, насколько хорошо обусловлена проблема. Определим его как
- <math>\widehat{\kappa} = \lim_{\delta \to 0} \sup_{\| \delta x \| \leq \delta} \frac{\| \delta f \|}{\| \delta x \|}.</math>
Неустойчивость — это склонность компьютерных алгоритмов, зависящих от арифметики с плавающей запятой, получать результаты, резко отличающееся от точного математического решения задачи. Когда матрица содержит реальные данные со многими значащими цифрами, многие алгоритмы для решения таких задач, как линейные системы уравнений или оптимизация методом наименьших квадратов, могут давать очень неточные результаты. Создание устойчивых алгоритмов для плохо обусловленных задач — центральная задача численной линейной алгебры. Одним из примеров: устойчивость метода отражения Хаусхолдера делает алгоритм надежным методом решения линейных систем, тогда как неустойчивость метода нормальных уравнений для решения задач наименьших квадратов является причиной для выбора методов матричного разложения, таких как использование SVD-разложения. Некоторые методы разложения матриц могут быть неустойчивыми, но имеют простые модификации, делающие их устойчивыми; например, нестабильный метод Грама-Шмидта, который может легко быть изменён для получения устойчивой модификации Грама-Шмидта[1]Шаблон:Rp. Другая классическая задача числовой линейной алгебры заключается в том, что метод Гаусса нестабилен, но становится устойчивым с введением опорного элемента.
Итерационные методы
Шаблон:Main Есть две причины, по которым итерационные алгоритмы — важная часть численной линейной алгебры. Во-первых, многие численные задачи не имеют прямого решения; чтобы найти собственные значения и собственные векторы произвольной матрицы, мы можем использовать только итеративный подход. Во-вторых, безытерационные алгоритмы для произвольной <math>m \times m</math> матрицы требуют <math>O(m^3)</math> времени, что неожиданно долго, учитывая, что матрицы содержат только <math>m^2</math> чисел. Итерационные подходы могут использовать некоторые особенности матриц, чтобы сократить это время. Например, когда матрица разреженная, итеративный алгоритм может пропустить многие шаги, которые обязательно последуют при прямом подходе, даже если они избыточны.
Ядро многих итерационных методов в численной линейной алгебре — это проекция матрицы на более низкое подпространство Крылова более низкой размерности, что позволяет аппроксимировать характеристики матрицы высокой размерности путем итеративного вычисления эквивалентных характеристик подобных матриц, начиная с пространства низкой размерности и последовательного перехода к более высоким измерениям. Когда <math>A</math> симметрична, и мы хотим решить линейную задачу <math>Ax=b</math>, классический итеративный подход — метод сопряжённых градиентов. Если <math>A</math> не симметричная, то примерами итерационных решений линейной задачи являются Шаблон:Iw и Шаблон:Iw для нормальных уравнений. Если <math>A</math> симметричная, то для нахождения собственных значений и собственных векторов мы можем использовать Шаблон:Iw, и если <math>A</math> не симметричная, то используется итерация Арнольди.
Программное обеспечение для численного анализа
Некоторые языки программирования используют методы оптимизации численной линейной алгебры и предназначены для реализации её алгоритмов. Эти языки включают MATLAB, Analytica, Maple, и Mathematica. Другие языки программирования, которые явно не предназначены для численной линейной алгебры, имеют библиотеки, которые предоставляют процедуры и оптимизацию; в C и Fortran есть пакеты Basic Linear Algebra Subprograms и LAPACK, в python есть библиотека NumPy, и в Perl есть Perl Data Language. Многие команды численной линейной алгебры в R полагаются на фундаментальные библиотеки, такие как LAPACK[5].
Ссылки