Русская Википедия:Метод Гаусса — Зейделя решения системы линейных уравнений

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Не путать Шаблон:Дзт Ме́тод Га́усса — Зе́йделя (метод Зейделя, процесс Либмана, метод последовательных замещений) — является классическим итерационным методом решения системы линейных уравнений.

Назван в честь Зейделя и Гаусса.

Постановка задачи

Возьмём систему: <math>A\vec{x}=\vec{b}</math>, где <math>A=\left( \begin{array}{ccc} a_{11} & \ldots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \ldots & a_{nn} \end{array} \right),\quad \vec{b}=\left( \begin{array}{c} b_1 \\ \vdots \\ b_n \end{array} \right)</math>

Или <math>\left\{ \begin{array}{rcl} a_{11}x_1 + \ldots + a_{1n}x_n& = & b_{1} \\ & &\\ a_{n1}x_1 + \ldots + a_{nn}x_n & = & b_{n} \end{array} \right.</math>

И покажем, как её можно решить с использованием метода Гаусса-Зейделя.

Метод

Чтобы пояснить суть метода, перепишем задачу в виде

<math>\left\{

\begin{array}{lcr} a_{11}x_1 & = &-a_{12}x_2 - a_{13}x_3 -\ldots - a_{1n}x_n + b_1\\ a_{21}x_1 + a_{22}x_2 & = & -a_{23}x_3 - \ldots - a_{2n}x_n + b_2\\ \ldots & &\\ a_{(n-1)1}x_1 + a_{(n-1)2}x_2 +\ldots+ a_{(n-1)(n-1)}x_{n-1} & = & -a_{(n-1)n}x_n + b_{n-1}\\ a_{n1}x_1 + a_{n2}x_2 +\ldots+ a_{n(n-1)}x_{n-1}+ a_{nn}x_n & = & b_n \end{array} \right.</math>

Здесь в <math>j</math>-м уравнении мы перенесли в правую часть все члены, содержащие <math>x_i</math>, для <math>i > j</math>. Эта запись может быть представлена как

<math>(\mathrm{L} + \mathrm{D} )\vec{x} = -\mathrm{U} \, \vec{x} + \vec{b},</math>

где в принятых обозначениях <math>\mathrm{D}</math> означает матрицу, у которой на главной диагонали стоят соответствующие элементы матрицы <math>A</math>, а все остальные нули; тогда как матрицы <math>\mathrm{U}</math> и <math>\mathrm{L}</math> содержат верхнюю и нижнюю треугольные части <math>A</math>, на главной диагонали которых нули.

Итерационный процесс в методе Гаусса — Зейделя строится по формуле

<math>(\mathrm{L} + \mathrm{D})\vec{x}^{(k+1)} = -\mathrm{U} \vec{x}^{(k)} + \vec{b}, \quad k = 0, 1, 2, \ldots</math>

после выбора соответствующего начального приближения <math>\vec{x}^{(0)}</math>.

Метод Гаусса — Зейделя можно рассматривать как модификацию метода Якоби. Основная идея модификации состоит в том, что новые значения <math>\vec{x}^{(i)}</math> используются здесь сразу же по мере получения, в то время как в методе Якоби они не используются до следующей итерации:

<math>\left\{\begin{array}{ccccccccccc}

{x_{1}}^{(k+1)} &=& c_{12}{x_2^{(k)}} &+& c_{13}x_3^{(k)}&+& {\ldots}&+& c_{1n}{x_n}^{(k)} &+& d_1 \\ {x_{2}}^{(k+1)} &=& c_{21}{x_1^{(k+1)}} &+& c_{23}x_3^{(k)}&+& {\ldots}&+& c_{2n}{x_n}^{(k)} &+& d_2 \\ \ldots & & & & & & & & & & \\ {x_{n}}^{(k+1)} &=& c_{n1}{x_1^{(k+1)}} &+& c_{n2}{x_2^{(k+1)}}&+& {\ldots}&+& c_{n(n-1)}{x_{n-1}}^{(k+1)} &+& d_n \end{array}\right.,</math>

где

<math>c_{ij} = \begin{cases}
-\frac{a_{ij}}{a_{ii}}, & j \neq i,\\
0, & j = i.

\end{cases} \quad d_i = \frac{b_i}{a_{ii}}, \quad i = 1, \ldots, n.</math>

Таким образом, i-я компонента <math>(k+1)</math>-го приближения вычисляется по формуле

<math>x_i^{(k+1)}=\sum_{j=1}^{i-1}c_{ij}x_{j}^{(k+1)}+\sum_{j=i}^{n}c_{ij}x_{j}^{(k)}+d_i, \quad i=1,\ldots,n.</math>

Например, при <math>n=3</math>:

<math>x_1^{(k+1)}=\sum_{j=1}^{1-1}c_{1j}x_{j}^{(k+1)}+\sum_{j=1}^{3}c_{1j}x_{j}^{(k)}+d_1</math>, то есть <math>x_1^{(k+1)}= c_{11}x_{1}^{(k)} + c_{12}x_{2}^{(k)}+ c_{13}x_{3}^{(k)} + d_1,</math>
<math>x_2^{(k+1)}=\sum_{j=1}^{2-1}c_{2j}x_{j}^{(k+1)}+\sum_{j=2}^{3}c_{2j}x_{j}^{(k)}+d_2</math>, то есть <math>x_2^{(k+1)}= c_{21}x_{1}^{(k+1)} + c_{22}x_{2}^{(k)}+ c_{23}x_{3}^{(k)} + d_2,</math>
<math>x_3^{(k+1)}=\sum_{j=1}^{3-1}c_{3j}x_{j}^{(k+1)}+\sum_{j=3}^{3}c_{3j}x_{j}^{(k)}+d_3</math>, то есть <math>x_3^{(k+1)}= c_{31}x_{1}^{(k+1)} + c_{32}x_{2}^{(k+1)}+ c_{33}x_{3}^{(k)} + d_3.</math>

Условие сходимости

Приведём достаточное условие сходимости метода.

Шаблон:Message box

Условие окончания

Условие окончания итерационного процесса Зейделя при достижении точности <math>\varepsilon</math> в упрощённой форме имеет вид:

<math>\parallel x^{(k+1)}-x^{(k)}\parallel \le \varepsilon</math>

Более точное условие окончания итерационного процесса имеет вид

<math>\parallel Ax^{(k)}-b\parallel \le \varepsilon</math>

и требует больше вычислений. Хорошо подходит для разреженных матриц.

Пример реализации на C++

#include <iostream>
#include <cmath>

using namespace std;

// Условие окончания
bool converge(double xk[10], double xkp[10], int n, double eps)
{
	double norm = 0;
	for (int i = 0; i < n; i++)
		norm += (xk[i] - xkp[i]) * (xk[i] - xkp[i]);
	return (sqrt(norm) < eps);
}

double okr(double x, double eps)
{
	int i = 0;
	double neweps = eps;
	while (neweps < 1)
	{
		i++;
		neweps *= 10;
	}
	int okr = pow(double(10), i);
	x = int(x * okr + 0.5) / double(okr);

	return x;
}

bool diagonal(double a[10][10], int n)
{
	int i, j, k = 1;
	double sum;
	for (i = 0; i < n; i++) {
		sum = 0;
		for (j = 0; j < n; j++) sum += abs(a[i][j]);
		sum -= abs(a[i][i]);
		if (sum > a[i][i]) 
		{
			k = 0; 
			cout << a[i][i] << " < " << sum << endl;
		}
		else
		{
			cout << a[i][i] << " > " << sum << endl;
		}
		

	}

	return (k == 1);

}




int main()
{
	setlocale(LC_ALL, "");

	double eps, a[10][10], b[10], x[10], p[10];
	int n, i, j, m = 0;
	int method;
	cout << "Введите размер квадратной матрицы: ";
	cin >> n;
	cout << "Введите точность вычислений: ";
	cin >> eps;
	cout << "Заполните матрицу А: " << endl << endl;
	for (i = 0; i < n; i++)
		for (j = 0; j < n; j++)
		{
			cout << "A[" << i << "][" << j << "] = ";
			cin >> a[i][j];
		}
	cout << endl << endl;
	cout << "Ваша матрица А: " << endl << endl;
	for (i = 0; i < n; i++)
	{
		for (j = 0; j < n; j++)
			cout << a[i][j] << " ";
		cout << endl;
	}

	cout << endl;

	cout << "Заполните столбец свободных членов: " << endl << endl;
	for (i = 0; i < n; i++)
	{
		cout << "В[" << i + 1 << "] = ";
		cin >> b[i];
	}

	cout << endl << endl;


	/*
	Ход метода, где:
	a[n][n] - Матрица коэффициентов
	x[n], p[n] - Текущее и предыдущее решения
	b[n] - Столбец правых частей
	Все перечисленные массивы вещественные и
	должны быть определены в основной программе,
	также в массив x[n] следует поместить начальное
	приближение столбца решений (например, все нули)
	*/

	for (int i = 0; i < n; i++)
		x[i] = 1;

	cout << "Диагональное преобладание: " << endl;
	if (diagonal(a, n)) {
		do
		{
			for (int i = 0; i < n; i++)
				p[i] = x[i];
			for (int i = 0; i < n; i++)
			{
				double var = 0;
				for (int j = 0; j < n; j++)
                    if(j!=i) var += (a[i][j] * x[j]);
				
				x[i] = (b[i] - var) / a[i][i];
			}
			m++;
		} while (!converge(x, p, n, eps));



		cout << "Решение системы:" << endl << endl;
		for (i = 0; i < n; i++) cout << "x" << i << " = " << okr(x[i], eps) << "" << endl;
		cout << "Итераций: " << m << endl;
	}
	else {
		cout << "Не выполняется преобладание диагоналей" << endl;
	}

	system("pause");
	return 0;
}


Пример реализации на Python

import numpy as np

def seidel(A, b, eps):
    n = len(A)
    x = np.zeros(n)  # zero vector

    converge = False
    while not converge:
        x_new = np.copy(x)
        for i in range(n):
            s1 = sum(A[i][j] * x_new[j] for j in range(i))
            s2 = sum(A[i][j] * x[j] for j in range(i + 1, n))
            x_new[i] = (b[i] - s1 - s2) / A[i][i]

        converge = np.linalg.norm(x_new - x) <= eps
        x = x_new

См. также

Примечания

Шаблон:Примечания

Ссылки

Шаблон:Методы решения СЛАУ