Funkcja aktywacji

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Funkcja aktywacji – pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej.

Po agregacji danych wejściowych z uwzględnieniem wag powstaje sygnał sumarycznego pobudzenia. Rola funkcji aktywacji polega na tym, że musi ona określić sposób obliczania wartości sygnału wyjściowego neuronu na podstawie wartości tego sumarycznego pobudzenia[1].

W literaturze rozważano wiele różnych propozycji funkcji aktywacji, jednak najpowszechniejsze są cztery: funkcja liniowa (neuron liniowy), funkcja sigmoidalna (funkcja logistyczna, neuron sigmoidalny), funkcja tangensoidalna (funkcja tangens hiperboliczny, neuron tangensoidalny) oraz funkcja Gaussa (neuron radialny)[1].

W poniższej tabeli przedstawiono funkcje aktywacji wraz z wzorami matematycznymi i dodatkowymi informacjami.

Funkcja aktywacji Wzór matematyczny Gładka Monotoniczna Różniczkowalna Uwagi
Funkcja liniowa y(x)=ax+b Szablon:Tak Szablon:Tak Szablon:Tak
  • Funkcja nieograniczona
  • Z reguły b=0
Jednostronnie obcięta funkcja liniowa y(x)={0dlax<0xdlax0 Szablon:Tak Szablon:Tak Szablon:Tak (oprócz punktu x=0)
  • Brak górnej granicy
Obcięta funkcja liniowa

y(x)={1dlax<1xdla1x11dlax>1

Szablon:Nie Szablon:Tak Szablon:Tak (oprócz punktów x=1 i x=1)
  • Przedziałami liniowa
Funkcja progowa unipolarna

y(x)={0dlax<a1dlaxa

Szablon:Nie Szablon:Tak Szablon:Nie
  • a – zadana wartość progowa
  • Z reguły a=0
  • Taką funkcję aktywacji (a=0) zastosowali w swojej pracy jako matematyczny model neuronu Warren McCulloch i Walter Pitts
Funkcja progowa bipolarna

y(x)={1dlax<a1dlaxa

Szablon:Nie Szablon:Tak Szablon:Nie
  • a – zadana wartość progowa
  • Z reguły a=0
Sigmoidalna funkcja unipolarna (funkcja logistyczna)

y(x)=11+eβx

Szablon:Tak Szablon:Tak Szablon:Tak
  • Z reguły β(0,1]
  • Gdy β, funkcja przechodzi w progową unipolarną funkcję aktywacji
Sigmoidalna funkcja bipolarna (tangens hiperboliczny)

y(x)=21+eβx1=1eβx1+eβx

Szablon:Tak Szablon:Tak Szablon:Tak
  • Z reguły β(0,1].
  • Gdy β, funkcja przechodzi w progową bipolarną funkcję aktywacji
Funkcja Gaussa

y(x)=ae(xb)22c2

Szablon:Tak Szablon:Nie Szablon:Tak
Znormalizowana funkcja wykładnicza (softmax) σ(𝐳)j=ezjk=1Kezk Szablon:Tak Szablon:Tak Szablon:Tak
  • Prawdopodobieństwo zawsze sumuje się do jedności: k=1Kσ(𝐳)k=1
  • e – liczba Eulera
  • K – szerokość wektorów wejściowego i wyjściowego
  • Stosowana głównie w najwyższej warstwie klasyfikatorów, w celu obliczenia prawdopodobieństwa przynależności wektora wejściowego z do każdej z K klas wyjściowych

Przypisy

Szablon:Przypisy