Metoda quasi-Newtona

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Metody quasi-Newtonowskie (nazywane również metodami zmiennej metryki) – algorytmy znajdowania ekstremów lokalnych funkcji. Metody quasi-Newtonowskie bazują na metodzie Newtona znajdowania punktów stacjonarnych funkcji. Metoda Newtona zakłada, że funkcja może być lokalnie aproksymowana funkcją kwadratową w otoczeniu optimum, oraz używają pierwszych i drugich pochodnych (gradient i hesjan) w celu znalezienia punktów stacjonarnych.

W metodzie Quasi-Newtona hesjan (macierz drugich pochodnych) minimalizowanej funkcji nie musi być obliczany. Hesjan jest przybliżany przez analizowanie kolejnych wektorów gradientu. Metody Quasi-Newtona są uogólnieniem metody siecznych znajdowania pierwiastków pierwszej pochodnej na problem wielowymiarowy. W przypadku wielowymiarowym równanie siecznej jest wyznaczane w trakcie działania algorytmu. Metody quasi-Newtonowskie różnią się między sobą sposobem ograniczeń rozwiązania, zazwyczaj przez dodawanie nieznacznej poprawki do przybliżanego w każdym kroku hesjanu.

Pierwszy algorytm quasi-Newtonowski został zaproponowany przez W.C. Davidon, fizyka z Argonne National Laboratory.

Opis metody

Jak w metodzie Newtona, stosujemy aproksymacje drugiego stopnia w celu znalezienia minimum funkcji f(x). Rozwinięcie w szereg Taylora funkcji f(x) wyraża się wzorem:

f(x0+Δx)=f(x0)+f(x0)TΔx+12ΔxTBΔx,

gdzie (f) jest gradientem f a B jej hesjanem.

Szereg Taylora samego gradientu:

f(x0+Δx)=f(x0)+BΔx.

rozwiązanie równania f(x0+Δx0)=0 daje pierwszy krok:

Δx0=B1f(x0),

jednak B jest nieznana. W jednowymiarowym problemie znajdowanie B i wykonywanie newtonowskiego kroku z zaktualizowaną wartością jest równoważne metodzie siecznych. W problemie wielowymiarowym B jest wyznaczana.

Stosuje się wiele metod do wyznaczania rozwiązania równania siecznej, które jest symetryczne (BT=B) i najbliższe aktualnie aproksymowanej wartości Bk zgodnie z pewną metryką minB||BBk||. Aproksymowana wartość początkowa B0=I jest zazwyczaj wystarczająca do osiągnięcia szybkiej zbieżności. nieznany xk jest aktualizowana przez stosowanie newtonowskiego kroku obliczanego przy użyciu hesjanu Bk

  • Δxk=αkBk1f(xk), z α dobraną by spełnić warunek Wolfa;
  • xk+1=xk+Δxk;
  • Gradient obliczany w nowym punkcie f(xk+1) i
yk=f(xk+1)f(xk),
  • są używane do poprawienia hesjanu Bk+1, lub bezpośrednio jego odwrotności Hk+1=Bk+11 używająć wzoru Shermana-Morrisona.

Najpopularniejsze metody obliczania przybliżeń:

Metoda Bk+1= Hk+1=Bk+11=
DFP (IykΔxkTykTΔxk)Bk(IΔxkykTykTΔxk)+ykykTykTΔxk Hk+ΔxkΔxkTykTΔxkHkykykTHkTykTHkyk
BFGS Bk+ykykTykTΔxkBkΔxk(BkΔxk)TΔxkTBkΔxk (IykΔxkTykTΔxk)THk(IykΔxkTykTΔxk)+ΔxkΔxkTykTΔxk
Broyden Bk+ykBkΔxkΔxkTΔxkΔxkT
Broyden Family (1φk)Bk+1BFGS+φkBk+1DFP, φ[0,1]
SR1 Bk+(ykBkΔxk)(ykBkΔxk)T(ykBkΔxk)TΔxk Hk+(ΔxkHkyk)(ΔxkHkyk)T(ΔxkHkyk)Tyk

Zobacz też

Bibliografia

  • Eventually W.C. Davidon’s paper published. William C. Davidon, Variable Metric Method for Minimization, SIOPT Volume 1 Issue 1, Pages 1-17, 1991.
  • Nocedal, Jorge & Wright, Stephen J. (1999). Numerical Optimization. Springer-Verlag. Szablon:ISBN.
  • Edwin K.P.Chong and Stanislaw H.Zak, An Introduction to Optimization 2ed, John Wiley & Sons Pte. Ltd. August 2001.