11. diel - Neurónové siete - Porovnanie algoritmov gradientného zostupu
V minulej lekcii, Neurónové siete - Gradientný zostup a jeho súrodenci , sme si ujasnili rozdiely medzi batch, minibatch a stochastic gradient descent algoritmom.
V tejto lekcii tutoriálu Neurónovej siete - Pokročilé si porovnáme algoritmy batch, minibatch a stochastic gradient descent, ktorým sme sa podrobne venovali minule.
Než sa ale pustíme do ich vyhodnotenia, vytvoríme si pomocnú triedu
TimeMeasure
. Trieda nám poslúži na meranie doby vykonávania
jednotlivých krokov:
class TimeMeasure: def __init__(self, label = ''): self._label = label def __enter__(self): self._starttime = timeit.default_timer() return self def __exit__(self, *args): end = timeit.default_timer() print(f"{self._label}{end - self._starttime:.3f}s")
Teraz si vyskúšame rôzne nastavenia a uvidíme, ako sa budú gradient a loss funkcie vyvíjať.
...koniec náhľadu článku...
Pokračuj ďalej
Minul si až sem a to je super! Veríme, že ti prvé lekcie ukázali niečo nového a užitočného.
Chceš v kurze pokračovať? Prejdi do prémiové sekcie.
Kúpiť tento kurz
Pred kúpou tohto článku je potrebné kúpiť predchádzajúci diel
Obsah článku spadá pod licenciu Premium, kúpou článku súhlasíš so zmluvnými podmienkami.
- Neobmedzený a trvalý prístup k jednotlivým lekciím.
- Kvalitné znalosti v oblasti IT.
- Zručnosti, ktoré ti pomôžu získať vysnívanú a dobre platenú prácu.
Popis článku
Požadovaný článok má nasledujúci obsah:
V kurze Neurónové siete - Krok za krokom, porovnávame algoritmy gradientného zostupu na MNIST datasete.
Kredity získaš, keď podporíš našu sieť. To môžeš urobiť buď zaslaním symbolickej sumy na podporu prevádzky alebo pridaním obsahu na sieť.