Metoda Gaussa-Seidla

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Metoda Gaussa-Seidlaiteracyjna metoda numerycznego rozwiązywania układów równań liniowych. Nazwa upamiętnia niemieckich matematyków: Carla Friedricha Gaussa i Philippa Ludwiga von Seidla.

Metoda stosowana jest głównie do rozwiązywania układów o dużej liczbie równań i niewiadomych (nawet rzędu milionów), których macierz główna jest macierzą przekątniowo dominującą. Równania tego typu występują powszechnie podczas rozwiązywania równań różniczkowych cząstkowych, np. równania Laplace’a. Dla małych układów równań dużo szybsze są metody bezpośrednie, np. metoda eliminacji Gaussa, natomiast dla ogromnych układów równań lepszą zbieżność zapewniają metody nadrelaksacyjne oraz wielosiatkowe (ang. multigrid).

Definicja

Szablon:Zobacz też Metoda Gaussa-Seidla jest metodą relaksacyjną, w której poszukiwanie rozwiązania rozpoczyna się od dowolnie wybranego rozwiązania próbnego 𝐱(0), po czym w kolejnych krokach, zwanych iteracjami, za pomocą prostego algorytmu zmienia się kolejno jego składowe, tak by coraz lepiej odpowiadały rzeczywistemu rozwiązaniu. Metoda Gaussa-Seidla bazuje na metodzie Jacobiego, w której krok iteracyjny zmieniono w ten sposób, by każda modyfikacja rozwiązania próbnego korzystała ze wszystkich aktualnie dostępnych przybliżonych składowych rozwiązania. Pozwala to zaoszczędzić połowę pamięci operacyjnej i w większości zastosowań praktycznych zmniejsza ok. dwukrotnie liczbę obliczeń niezbędnych do osiągnięcia zadanej dokładności rozwiązania.

Rozpatrzmy układ n równań liniowych z n niewiadomymi:

𝐀𝐱=𝐛.

Pojedynczą iterację metody Gaussa-Seidla można zapisać algebraicznie jako

𝐱(k+1)=(𝐃+𝐋)1(𝐔𝐱(k)+𝐛),

gdzie:

𝐃nieosobliwa macierz diagonalna,
𝐋 i 𝐔 – odpowiednio macierz dolnotrójkątna i górnotrójkątna macierzy 𝐀 (tzn. 𝐋 oraz 𝐔 mają zera na głównej przekątnej oraz 𝐀𝐃+𝐋+𝐔),
indeks k=0,1,2, – numer porządkowy iteracji.

Po rozpisaniu na składowe wzór ten przyjmuje postać używaną w implementacjach numerycznych:

xi(k+1)=1aii(bij=1i1aijxj(k+1)j=i+1naijxj(k)),(i=1,2,,n).
Uwaga
  • W powyższych wzorach zakłada się, że w razie potrzeby kolejność równań została zmieniona tak, by dominujące (tj. największe co do modułu w danym równaniu) współczynniki równania znajdowały się na głównej przekątnej macierzy 𝐀.
  • Jeżeli 𝐀 jest macierzą nieosobliwą, to zawsze można tak przestawić jej wiersze i kolumny, by macierz 𝐃 też była nieosobliwa.
  • Metodę Gaussa-Seidla stosuje się niemal wyłącznie do układów z macierzą przekątniowo dominującą, gdyż w wielu praktycznych zastosowaniach (np. przy rozwiązywaniu eliptycznych równań różniczkowych cząstkowych) jest to łatwy do spełnienia warunek gwarantujący zbieżność metody.
  • Metodę Gaussa-Seidla można stosować także do układów równań liniowych, w których macierz układu nie jest przekątniowo dominująca, ale poza nielicznymi wyjątkami zwykle nie ma gwarancji, że w tym przypadku metoda będzie zbieżna[uwaga 1].

Warunki zbieżności

Warunki wystarczające

Kryterium silnej dominacji w rzędach

Metoda Gaussa-Seidla jest zbieżna dla każdej macierzy 𝐀 spełniającej warunek ścisłej dominacji przekątniowej w rzędach[1]:

|aii|>j=1,jin|aij|dlawszystkichi=1,2,,n.

Kryterium silnej dominacji w kolumnach

Metoda Gaussa-Seidla jest zbieżna dla każdej macierzy 𝐀 spełniającej warunek ścisłej dominacji przekątniowej w kolumnach[1]:

|ajj|>i=1,ijn|aij|dlawszystkichj=1,2,,n.

Kryterium słabej dominacji w rzędach

Kolejne kryterium dotyczy nieredukowalnych układów równań liniowych[uwaga 2]. Jeżeli wszystkie wyrazy diagonalne macierzy nieredukowalnej[uwaga 3][uwaga 4] 𝐀 dominują rzędami w sensie słabym

|aii|j=1,jin|aij|dlawszystkichi=1,2,,n

oraz jeżeli dla co najmniej jednego wiersza i{1,2,,n} zachodzi dominacja silna:

|aii|>j=1,jin|aij|,

to ciąg iteracji Gaussa-Seidla jest zbieżny[1][2].

Kryterium słabej dominacji w kolumnach

Jeżeli wszystkie wyrazy diagonalne macierzy nieredukowalnej[uwaga 3] 𝐀 dominują kolumnami w sensie słabym

|ajj|i=1,ijn|aij|dlawszystkichi=1,2,,n

oraz jeżeli dla co najmniej jednej kolumny j{1,2,,n} zachodzi dominacja silna:

|ajj|>i=1,ijn|aij|,

to ciąg iteracji Gaussa-Seidla jest zbieżny[1].

Kryterium dodatniej określoności

Jeżeli macierz 𝐀 jest dodatnio określona, to metoda Gaussa-Seidla jest zbieżna dla dowolnego wektora początkowego[1][3].

Warunek konieczny i wystarczający

Niech

𝐁=(𝐃+𝐋)1𝐔

Metoda Gaussa-Seidla jest zbieżna wtedy i tylko wtedy, gdy moduły wszystkich wartości własnych 𝐁 są mniejsze od 1[3].

Uwaga: powyższe kryterium jest niepraktyczne i nie jest wykorzystywane w obliczeniach numerycznych.

Warunek zakończenia iteracji

W praktyce iteracje Gaussa-Seidla kończy się wtedy, gdy dla iteracji o numerze k>1 maksymalna względna zmiana składowej przybliżonego rozwiązania nie przekracza pewnego z góry zadanego małego parametru ε (np. 1010):

maxi|xikxik1|<εmaxi|xik|.

Alternatywny sposób polega na śledzeniu wektora reszt:

𝐫=𝐛𝐀𝐱.

Obliczenia przerywa się, gdy maxi|ri| osiągnie wartość mniejszą od pewnego z góry ustalonego małego parametru ϵ.

Uwagi:

  • W metodzie Gaussa-Seidla w każdym kroku modyfikuje się pewną składową rozwiązania (xj), tak by wyzerować odpowiadającą mu składową wektora reszt (rj).
  • Sukcesywne zerowanie jednej lub kilku składowych wektora reszt stanowi istotę wszystkich metod relaksacyjnych.
  • Aktualizacja wektora reszt w kolejnych krokach może być przeprowadzona stosunkowo niewielkim nakładem obliczeń.

Przykłady

Układ trzech równań liniowych

Rozważmy następujący układ równań liniowych:

{x1+6x2+x3=94x1x2+x3=4x1+2x2+5x3=2

W pierwszym i drugim równaniu wyrazy dominujące (6x2 i 4x1) leżą poza główną przekątną. Po zamianie kolejności tych równań otrzymujemy układ, w którym wartości dominujące leżą na głównej przekątnej:

4x1x2+x3=4
x1+6x2+x3=9
x1+2x2+5x3=2

Układ ten spełnia warunek zbieżności metody (macierz układu jest dominująca przekątniowo). Układ zapisujemy w postaci równań na wyrazy dominujące:

x1=14(4+x2x3)
x2=16(9x1x3)
x3=15(2+x12x2)

Dokonujemy wyboru („zgadujemy”) wartości x2 i x3, np. x2=0 i x3=0. Następnie podstawiamy te wartości do równania na x1, uzyskując początkową wartość x1. Tak uzyskaną wartość podstawiamy do równania na x2, uzyskując nowe przybliżenie tej niewiadomej. Iteracje kontynuujemy do osiągnięcia określonej dokładności względnej.

Dla x2=0 i x3=0 powyższa procedura daje następujące wyniki (dwie pełne iteracje):

x1=14(4+00)=1
x2=16(910)=431,333
x3=15(2+1243)=1150,0667
x1=14(4+43115)=79601,317
x2=16(97960115)=4573601,269
x3=15(2+79602457360)=7450,1556

Dokładne rozwiązanie: x1=23181,278, x2=53421,262, x3=191260,1508.

Jak łatwo sprawdzić, gdyby na początku nie zmieniono kolejności równań, iteracje Gaussa-Seidla byłyby rozbieżne.

Jednowymiarowe równanie Laplace’a

Jednowymiarowe równanie Laplace’a ma postać 𝐀𝐱=𝐛, gdzie 𝐀 jest macierzą trójprzekątniową:

𝐀=[21121112]

Macierz 𝐀, jako pełna macierz trójprzekątniowa, jest nieredukowalna[uwaga 3]. Wszystkie elementy dominujące znajdują się na głównej przekątnej. Wartość bezwzględna każdego elementu dominującego jest co najmniej równa sumie wartości bezwzględnych pozostałych elementów w danym wierszu. Istnieją dwa elementy dominujące (w pierwszym i ostatnim wierszu, czyli na brzegach układu), których wartość bezwzględna jest większa od sumy wartości bezwzględnych pozostałych elementów wiersza. Dlatego na mocy kryterium dominacji przekątniowej metoda Gaussa-Seidla jest w przypadku tego równania zbieżna.

Ten sam wniosek można wyciągnąć z kryterium dodatniej określoności macierzy 𝐀, ale wymaga to bardziej zaawansowanych rachunków.

Równanie niezbieżne

Rozpatrzmy układ równań 𝐀𝐱=Θ, gdzie

𝐀=[211121112]

Układ ten ma nieskończenie wiele rozwiązań postaci 𝐱=c[1,1,1], gdzie c jest dowolną liczbą rzeczywistą. Macierz 𝐀 nie spełnia żadnego z opisanych powyżej warunków dostatecznych zbieżności metody Gaussa-Seidla. Mimo tego, jak łatwo sprawdzić, metoda Gaussa-Seidla jest w tym przypadku zbieżna dla każdego wektora początkowego x0; problem w tym, że wartość graniczna zależy od wyboru rozwiązania próbnego 𝐱(0).

Algorytm

Wybierz początkowe przybliżenie 𝐱(0)
for k := 1 step 1 until oczekiwane przybliżenie do
for i := 1 step 1 until n do
σ=0
for j := 1 step 1 until i-1 do
σ=σ+aijxj(k)
end (j-for)
for j := i+1 step 1 until n do
σ=σ+aijxj(k1)
end (j-for)
xi(k)=(biσ)aii
end (i-for)
sprawdź, czy osiągnięto oczekiwane przybliżenie
end (k-for)
𝐱𝐱(k)

Przykład w Python 3 i pakiecie NumPy

import numpy as np

ITERATION_LIMIT = 1000

# initialize the matrix
A = np.array([[10., -1., 2., 0.],
       [-1., 11., -1., 3.],
       [2., -1., 10., -1.],
       [0.0, 3., -1., 8.]])
# initialize the RHS vector
b = np.array([6., 25., -11., 15.])

# prints the system
print("System:")
for i in range(A.shape[0]):
  row = ["{}*x{}".format(A[i, j], j + 1) for j in range(A.shape[1])]
  print(" + ".join(row), "=", b[i])
print()

x = np.zeros_like(b)
for it_count in range(ITERATION_LIMIT):
  print("Current solution:", x)
  x_new = np.zeros_like(x)

  for i in range(A.shape[0]):
    s1 = np.dot(A[i, :i], x_new[:i])
    s2 = np.dot(A[i, i + 1:], x[i + 1:])
    x_new[i] = (b[i] - s1 - s2) / A[i, i]

  if np.allclose(x, x_new, rtol=1e-8):
    break

  x = x_new

print("Solution:")
print(x)
error = np.dot(A, x) - b
print("Error:")
print(error)

Powyższy przykład wyświetla wynik:

System:
10.0*x1 + -1.0*x2 + 2.0*x3 + 0.0*x4 = 6.0
-1.0*x1 + 11.0*x2 + -1.0*x3 + 3.0*x4 = 25.0
2.0*x1 + -1.0*x2 + 10.0*x3 + -1.0*x4 = -11.0
0.0*x1 + 3.0*x2 + -1.0*x3 + 8.0*x4 = 15.0

Current solution: [ 0. 0. 0. 0.]
Current solution: [ 0.6     2.32727273 -0.98727273 0.87886364]
Current solution: [ 1.03018182 2.03693802 -1.0144562  0.98434122]
Current solution: [ 1.00658504 2.00355502 -1.00252738 0.99835095]
Current solution: [ 1.00086098 2.00029825 -1.00030728 0.99984975]
Current solution: [ 1.00009128 2.00002134 -1.00003115 0.9999881 ]
Current solution: [ 1.00000836 2.00000117 -1.00000275 0.99999922]
Current solution: [ 1.00000067 2.00000002 -1.00000021 0.99999996]
Current solution: [ 1.00000004 1.99999999 -1.00000001 1.    ]
Current solution: [ 1. 2. -1. 1.]
Solution:
[ 1. 2. -1. 1.]
Error:
[ 2.06480930e-08 -1.25551054e-08  3.61417563e-11  0.00000000e+00]

Uwagi

Szablon:Uwagi

Przypisy

Szablon:Przypisy

Bibliografia

  • Szablon:Cytuj
  • Szablon:Cytuj
  • John C. Tannehill, Dale A. Anderson i Richard H. Pletcher, Computational Fluid Mechanics and Heat Transfer (Second Edition), Francis & Taylor, Philadelphia, 1997, Szablon:ISBN.

Literatura dodatkowa

  • David Kincaid, Ward Cheney, Analiza Numeryczna Szablon:ISBN.

Linki zewnętrzne


Błąd rozszerzenia cite: Istnieje znacznik <ref> dla grupy o nazwie „uwaga”, ale nie odnaleziono odpowiedniego znacznika <references group="uwaga"/>

  1. 1,0 1,1 1,2 1,3 1,4 Stoer i Bulirsch, 1993.
  2. Tannehill i in., 1997.
  3. 3,0 3,1 Ralston, 1983.