Algoritmus zpětného šíření chyby: Porovnání verzí

Smazaný obsah Přidaný obsah
m →‎Algoritmus: doplnění
Řádek 23:
: <math>\alpha</math> velikost gradientního kroku.
 
 
Faktor <math>\tfrac{1}{2}</math> je přidán pouze pro zjednodušení vzorce pro derivaci.
Jeden adaptační (sestupný gradientní) krok pak může vypadat následovně:
 
: <math>w_{ij}\left(T\right)=w_{ij}\left(T-1\right)+\alpha \ y_i\left(T\right)\ g_j(x_j(T))+\mu \ \Delta w_{ij}\left(T-1\right)</math>
: <math>{\vartheta }_i\left(T\right)={\vartheta }_i\left(T-1\right)+\alpha \ g_i(x_i(T))+\mu \ \Delta {\vartheta }_i\left(T-1\right)</math>
: <math>p_i\left(T\right)=p_i\left(T-1\right)+\alpha \ x_i\left(T\right)\ g_i(x_i(T))+\mu \ \Delta p_i\left(T-1\right)</math>
 
: <math>g_k(x_k)=p_ky_k(1-y_k)(z_k-y_k)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ g_i(x_i)=p_iy_i\left(1-y_i\right)\ \sum_j{g_j(x_j)\ w_{ij}}</math>
 
: <math>k\in V_N, j\in V_L, i\in V_{L-1}, L\in \left\{2,\dots ,N\right\}, T\in \left\{1,\dots ,M\right\}</math>
 
{{Sloupce|2|
: <math>x_i</math> potenciál i-tého neuronu
: <math>y_i</math> skutečný stav i-tého neuronu
: <math>z_i</math> požadovaný stav i-tého neuronu
: <math>g_i</math> adaptační funkce i-tého neuronu
: <math>\vartheta_i</math> práh i-tého neuronu
: <math>p_i</math> strmost aktivační funkce i-tého neuronu
: <math>w_{ij}</math> synaptická váha vazby i-tého neuronu s j-tým neuronem
: <math>\alpha</math> rychlost učení
: <math>\mu</math> moment gradientního sestupu
: <math>V_L</math> populace neuronů L-té vrstvy
: <math>N</math> počet vrstev sítě
: <math>M</math> počet prvků trénovací množiny
: <math>\Delta</math> předcházející přírůstek příslušné proměnné
}}
 
 
Cílem učení je minimalizovat tuto chybovou funkci, přičemž gradientní sestup obecně najde pouze [[Extrém funkce|lokální minimum]]. Učení umělé neuronové sítě spočívá ve změně vah vstupů neuronů. Algoritmus zpětného šíření chyby v každém kroku postupuje v následujících třech fázích: