Algoritmus zpětného šíření chyby: Porovnání verzí

Smazaný obsah Přidaný obsah
m úprava
m doplnění
Řádek 45:
: <math>w_{ij}</math> synaptická váha vazby i-tého neuronu s j-tým neuronem
: <math>\alpha</math> rychlost učení
: <math>\mu</math> momentmíra setrvačnosti gradientního sestupu
: <math>V_L</math> populace neuronů L-té vrstvy
: <math>N</math> počet vrstev sítě
Řádek 53:
 
 
Cílem učení je minimalizovat tuto chybovou funkci, přičemž gradientní sestup obecně najde pouze [[Extrém funkce|lokální minimum]], proto se do gradientního sestupu zavádí jistá jeho setrvačnost, spočívající v míře respektování směru jeho minulého sestupného kroku, tj. k aktuálnímu gradientu se připočte minulý gradient a aktuální sestupný krok se provede ve směru jejich součtu, tato deformace gradientního sestupu pak umožní vyklouznutí z mělkého lokálního minima. Učení umělé neuronové sítě spočívá ve změně vah vstupů neuronů. Algoritmus zpětného šíření chyby v každém kroku postupuje v následujících třech fázích:
 
* Aplikují se vzorky a pro každý vzorek se postupně směrem vpřed napočítají výstupy (vstupní signál se sítí šíří směrem dopředu).