Algoritmus zpětného šíření chyby: Porovnání verzí
Smazaný obsah Přidaný obsah
m doplnění |
|||
Řádek 10:
== Algoritmus ==
[[File:Gradient descent.gif|náhled|Gradientní sestup]]
Kvalita naučení [[Umělá neuronová síť|umělé neuronové sítě]] je popsána chybovou funkcí, nejčastěji kvadratickou chybou:<ref name=UNS>{{Citace monografie| příjmení = Křivan| jméno = Miloš| titul = Umělé neuronové sítě| url = https://www.intelligentsoftware.eu/upload/pdf/Scriptum.pdf| vydavatel = Oeconomica| místo = Praha| rok = 2021| počet stran =76| vydání = první| isbn = 978-80-245-2420-7| jazyk = cs}}</ref>
: <math>E\;=\;\frac{1}{2} \sum\limits^{N}_{j=1} \sum\limits^{n}_{i=1} (
: <math>E</math> chyba
: <math>N</math> počet vzorků předložených síti
: <math>n</math> počet neuronů výstupní vrstvy
: <math>
: <math>
: <math>\Delta w</math> vektor přírůstků vah
: <math>\alpha</math> velikost gradientního kroku
[[Soubor:Zpětné šíření chyby.png|náhled|Zpětné šíření chyby]]
Jeden
: <math>w_{ij}\left(T\right)=w_{ij}\left(T-1\right)+\alpha \ y_i\left(T\right)\ g_j(x_j(T))+\mu \ \Delta w_{ij}\left(T-1\right)</math>
Řádek 33:
: <math>g_k(x_k)=p_ky_k(1-y_k)(z_k-y_k) \ \ \ \ \ g_i(x_i)=p_iy_i\left(1-y_i\right)\ \sum_j{g_j(x_j)\ w_{ij}}</math>
: <math>k\in V_N, j\in V_L, i\in V_{L-1}, L\in \left\{2,\dots ,
Řádek 40:
: <math>y_i</math> skutečný stav i-tého neuronu
: <math>z_i</math> požadovaný stav i-tého neuronu
: <math>g_i</math> [[adaptační funkce]] i-tého neuronu
: <math>p_i</math> strmost [[aktivační funkce]] i-tého neuronu
: <math>\vartheta_i</math> práh i-tého neuronu
: <math>
: <math>
: <math>\mu</math> míra setrvačnosti gradientního sestupu
: <math>V_L</math> populace neuronů L-té vrstvy
: <math>
: <math>\Delta</math> předcházející přírůstek příslušné proměnné
}}
Cílem učení je minimalizovat
* Aplikují se vzorky a pro každý vzorek se postupně směrem vpřed napočítají výstupy (vstupní signál se sítí šíří směrem dopředu).
* Napočítané výstupy se porovnají s požadovanými výstupy, tj. spočte se chyba, jak byla popsána výše.
* Na základě spočtené chyby se počítají hodnoty adaptačních funkcí ve směru od poslední vrstvy k první vrstvě (pro výpočet hodnoty adaptačních funkcí podřazené vrstvy již musí být vypočteny hodnoty adaptačních funkcí nadřazené vrstvy), tj. spočítá se gradient chybové funkce, na základě kterého se provede sestupný gradientní krok, tj. upraví se vstupní váhy neuronů tak, že klesne hodnota chyby. Výpočet tedy postupuje zpětně od výstupní vrstvy až po vstupní vrstvu (odtud zpětné šíření chyby), váhy se mění podle jejich vlivu na chybu.
== Reference ==
|