Sortowanie Shella

Z testwiki
Wersja z dnia 05:14, 29 maj 2024 autorstwa imported>Gżdacz (Wycofano edycję użytkownika 153.19.199.174 (dyskusja). Autor przywróconej wersji to NiktWażny.)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacji Przejdź do wyszukiwania

Szablon:Wyróżnienie Szablon:Algorytm infobox Sortowanie Shella (ang. Shellsort) – jeden z algorytmów sortowania działających w miejscu i korzystających z porównań elementów. Można go traktować jako uogólnienie sortowania przez wstawianie lub sortowania bąbelkowego, dopuszczające porównania i zamiany elementów położonych daleko od siebie. Na początku sortuje on elementy tablicy położone daleko od siebie, a następnie stopniowo zmniejsza odstępy między sortowanymi elementami. Dzięki temu może je przenieść w docelowe położenie szybciej niż zwykłe sortowanie przez wstawianie.

Pierwszą wersję tego algorytmu, której zawdzięcza on swoją nazwę, opublikował w 1959 roku Donald Shell[1]. Złożoność czasowa sortowania Shella w dużej mierze zależy od użytego w nim ciągu odstępów. Wyznaczenie jej dla wielu stosowanych w praktyce wariantów tego algorytmu pozostaje problemem otwartym.

Opis algorytmu

Sortowanie Shella to algorytm wieloprzebiegowy. Kolejne przebiegi polegają na sortowaniu przez proste wstawianie elementów oddalonych o ustaloną liczbę miejsc h, czyli tak zwanym h-sortowaniu.

Poniżej zilustrowano sortowanie przykładowej tablicy metodą Shella z odstępami 5, 3, 1.

a1a2a3a4a5a6a7a8a9a10a11a12dane wejściowe:628318530717958647692528po 5-sortowaniu:172818470725838653696295po 3-sortowaniu:170718472825696253838695po 1-sortowaniu:071718252847536269838695

Pierwszy przebieg, czyli 5-sortowanie, sortuje osobno przez wstawianie zawartość każdego z fragmentów (a1,a6,a11), (a2,a7,a12), (a3,a8), (a4,a9),(a5,a10). Na przykład fragment (a1,a6,a11) zmienia z (62, 17, 25) na (17, 25, 62).

Następny przebieg, czyli 3-sortowanie, sortuje przez wstawianie zawartość fragmentów (a1,a4,a7,a10), (a2,a5,a8,a11),(a3,a6,a9,a12).

Ostatni przebieg, czyli 1-sortowanie, to zwykłe sortowanie przez wstawianie całej tablicy (a1,,a12).

Jak widać, fragmenty tablicy, na których operuje algorytm Shella, są z początku krótkie, a pod koniec dłuższe, ale prawie uporządkowane. W obu tych przypadkach sortowanie przez proste wstawianie działa wydajnie.

Sortowanie Shella nie jest stabilne, czyli może nie zachowywać wejściowej kolejności elementów o równych kluczach. Wykazuje ono zachowanie naturalne, czyli krótszy czas sortowania dla częściowo uporządkowanych danych wejściowych.

Ciągi odstępów

Każdy ciąg odstępów zakończony jedynką prowadzi do poprawnie sortującego algorytmu. Własności tak otrzymanych wersji algorytmu mogą być jednak bardzo różne.

W poniższej tabeli zestawiono większość dotychczas opublikowanych propozycji ciągów odstępów. Niektóre z tych ciągów mają malejące wyrazy zależne od N, czyli rozmiaru sortowanej tablicy. Inne to rosnące ciągi nieskończone, z których należy użyć w odwrotnej kolejności wyrazów mniejszych od N.

Wyraz ogólny ciągu (k1) Konkretne odstępy Rząd złożoności
pesymistycznej
Autor i rok publikacji
N/2k N2,N4,,1 Θ(N2) [gdy N=2p] Shell, 1959[1]
2N/2k+1+1 2N4+1,,3,1 Θ(N3/2) Frank, Lazarus, 1960[2]
2k1 1,3,7,15,31,63, Θ(N3/2) Hibbard, 1963[3]
2k+1, na początku 1 1,3,5,9,17,33,65, Θ(N3/2) Papiernow, Stasiewicz, 1965[4]
kolejne liczby postaci 2p3q 1,2,3,4,6,8,9,12, Θ(Nlog2N) Pratt, 1971[5]
(3k1)/2, nie większe niż N/3 1,4,13,40,121, Θ(N3/2) Knuth, 1973[6]
0q<rq(r2+r)/2kaq,gdzie
r=2k+2k,
aq=min{n:n(5/2)q+1,
p:0p<qgcd(ap,n)=1}
1,3,7,21,48,112, O(N1+8ln(5/2)ln(N)) Incerpi, Sedgewick, 1985[7]
4k+32k1+1, na początku 1 1,8,23,77,281, O(N4/3) Sedgewick, 1986[8]
9(4k12k1)+1,4k+162k+1 1,5,19,41,109, O(N4/3) Sedgewick, 1986[8]
hk=max{5hk1/11,1},h0=N 5N11,5115N11,,1 ? Gonnet, Baeza-Yates, 1991[9]
1,82,25k10,8 1,4,9,20,46,103, ? Tokuda, 1992[10]
nieznany 1,4,10,23,57,132,301,701 ? Ciura, 2001[11]

Jeśli N jest potęgą dwójki, to sortowanie z oryginalnym ciągiem odstępów zaproponowanym przez Shella wykonuje w najgorszym przypadku Θ(N2) porównań. Przypadek ten zachodzi na przykład wtedy, gdy elementy większe i mniejsze od mediany zajmują odpowiednio parzyste i nieparzyste pozycje tablicy, ponieważ są one porównywane dopiero w ostatnim przebiegu.

Wersja zaproponowana przez Pratta ma wprawdzie wyższą złożoność niż optymalne dla algorytmów sortowania opartych na porównaniach O(NlogN), ale za to prowadzi do sieci sortującej o liczbie komparatorów tego samego rzędu, co sieć Batchera.

Zauważono, że średnio najmniej porównań elementów potrzeba, gdy ilorazy kolejnych odstępów leżą mniej więcej pomiędzy 2,2 a 2,3. Dlatego ciągi Gonneta i Baezy-Yatesa o ilorazie 2,2 i Tokudy o ilorazie 2,25 sprawdzają się w praktyce. Nie wiadomo jednak, dlaczego minimum przypada właśnie w tym miejscu. Zalecane jest też stosowanie odstępów o niskich największych wspólnych dzielnikach lub zgoła parami względnie pierwszych.

Pod względem średniej liczby porównań elementów najlepsze znane ciągi odstępów to ciąg 1, 4, 10, 23, 57, 132, 301, 701 i podobne, o wyrazach znalezionych doświadczalnie. Dalsze wyrazy optymalnych ciągów pozostają nieznane. Do dobrych wyników prowadzi przedłużenie ich zgodnie ze wzorem rekurencyjnym hk=2,25hk1.

Do zastosowań praktycznych można też polecić ciąg Tokudy, określony prostymi wzorami hk=h'k, gdzie h'k=2,25h'k1+1, h'1=1.

Złożoność obliczeniowa

Zachodzi intrygująca własność: po h2-sortowaniu dowolnej h1-posortowanej tablicy pozostaje ona nadal h1-posortowana[12]. Każda h1-posortowana i h2-posortowana tablica jest też (a1h1+a2h2)-posortowana dla wszystkich całkowitych nieujemnych a1 i a2. Zatem złożoność pesymistyczna sortowania Shella wiąże się z problemem Frobeniusa: dla danych całkowitych h1,,hn o nwd=1 liczba Frobeniusa g(h1,,hn) to największa liczba całkowita, której nie da się przedstawić w postaci a1h1++anhn przy a1,,an całkowitych nieujemnych. Korzystając ze wzorów na liczby Frobeniusa, potrafimy wyznaczać złożoność pesymistyczną dla kilku klas ciągów odstępów. Dowiedzione przypadki zamieszczono w powyższej tabeli.

Żaden dowiedziony wynik na temat średniej liczby operacji nie dotyczy praktycznego ciągu odstępów. Espelid wyliczył ją dla odstępów będących potęgami dwójki jako 0,5349NN0,4387N0,097N+O(1)[13]. Knuth wyznaczył średnią złożoność sortowania N-elementowej tablicy z dwoma przebiegami (h,1) jako 2N2/h+πN3h[6]. Wynika stąd, że dwuprzebiegowe sortowanie Shella z h=Θ(N1/3) wykonuje średnio O(N5/3) porównań. Yao znalazł średnią złożoność sortowania z trzema przebiegami[14]. Jego wynik uściślili potem Janson i Knuth[15]. Średnia liczba porównań wykonywanych podczas sortowania z trzema przebiegami (ch,cg,1), gdzie h i g są względnie pierwsze wynosi N24ch+O(N) w pierwszym przebiegu, 18gπch(h1)N3/2+O(hN) w drugim przebiegu i Ψ(h,g)N+18πc(c1)N3/2+O((c1)gh1/2N)+O(c2g3h2) w trzecim przebiegu. Skomplikowana funkcja Ψ(h,g) z ostatniego wzoru jest asymptotycznie równa πh128g+O(g1/2h1/2)+O(gh1/2). W szczególności, gdy h=Θ(N7/15), a g=Θ(h1/5), średni czas sortowania jest rzędu O(N23/15).

Na podstawie doświadczeń odgadnięto, że z ciągami Hibbarda i Knutha algorytm działa w średnim czasie rzędu O(N5/4)[6], a z ciągiem Gonneta i Baezy-Yatesa wykonuje średnio 0,41NlnN(lnlnN+1/6) przesunięć elementów[9]. Aproksymacje średniej liczby operacji czynione kiedyś dla innych ciągów zawodzą, gdy sortowane tablice liczą miliony elementów.

Poniższy wykres przedstawia średnią liczbę porównań elementów w różnych wariantach sortowania Shella, dzieloną przez teoretyczne minimum, czyli log2N!, przy czym do ciągu 1, 4, 10, 23, 57, 132, 301, 701 dodano dalsze wyrazy zgodnie ze wzorem hk=2,25hk1.

Korzystając z teorii złożoności Kołmogorowa, Jiang, Li i Vitányi udowodnili następujące dolne ograniczenia na rząd średniej liczby operacji w m-przebiegowym sortowaniu Shella: Ω(mN1+1/m) przy mlog2N i Ω(mN) przy m>log2N[16]. Zatem algorytm ten ma szanse działać w średnim czasie rosnącym asymptotycznie jak NlogN tylko z ciągami o liczbie odstępów rosnącej proporcjonalnie do logarytmu długości sortowanych tablic. Nie wiadomo jednak, czy sortowanie Shella może osiągnąć taki asymptotyczny rząd złożoności średniej, optymalny dla sortowań opartych na porównaniach.

Złożoność pesymistyczna dowolnej wersji sortowania Shella jest wyższego rzędu: Plaxton, Poonen i Suel wykazali, że rośnie ona co najmniej jak Ω(N(logN/loglogN)2)[17].

Zastosowania

Sortowanie Shella wykonuje więcej działań niż sortowanie szybkie, ponadto częściej od niego nie trafia w pamięć podręczną procesora przy odczytach z pamięci.

Ze względu na stosunkowo krótki kod i nieużywanie stosu bywa ono stosowane zamiast sortowania szybkiego w implementacjach funkcji qsort z biblioteki standardowej języka C przeznaczonych dla systemów wbudowanych. Używa go na przykład biblioteka uClibc[18]. Z podobnych przyczyn implementacja sortowania Shella była w jądrze systemu operacyjnego Linux[19] do 2017 roku[20].

Można też stosować sortowanie Shella jako podalgorytm sortowania introspektywnego używany do sortowania krótkich podtablic, a także gdy głębokość rekurencji przekroczy zadany limit, aby zapobiec patologicznemu spowolnieniu sortowania. Działa tak na przykład bzip2, jeden z programów do kompresji danych[21].

Zobacz też

Przypisy

Szablon:Przypisy

Bibliografia

Linki zewnętrzne

Szablon:Algorytmy sortowania