IT rekvalifikácia. Seniorní programátori zarábajú až 6 000 €/mesiac a rekvalifikácia je prvým krokom. Zisti, ako na to!

10. diel - Neurónové siete - Gradientný zostup a jeho súrodenci

V minulej lekcii, Neurónové siete – Dokončenie teórie pre logistickú regresiu , sme prebrali nekonvexné a multidimenzionálne prípady aj loss funkciu.

V dnešnej lekcii kurzu Neurónovej siete – Krok za krokom preberieme rozdiely medzi batch, minibatch a stochastic gradient descent algoritmom.

Výhody a nevýhody

Batch gradient descent (ďalej len Gradient Descent) a Stochastick Gradient Descent sme si už ukázali, ale mali by sme sa ešte porozprávať o rozdieloch ao ich výhodách a nevýhodách:

  • Gradient D

 

...koniec náhľadu článku...
Pokračuj ďalej

Vedomosti v hodnote stoviek tisíc získaš za pár korún

Minul si až sem a to je super! Veríme, že ti prvé lekcie ukázali niečo nového a užitočného.
Chceš v kurze pokračovať? Prejdi do prémiové sekcie.

Kúpiť tento kurz

Kúpiť všetky aktuálne dostupné lekcie s funkciou odovzdávanie úloh iba za 475 kreditov
Aktuálny stav konta 0 kreditov
Kúpou tohoto balíčku získaš prístup ku všetkým 22 článkom (22 lekcií) tohoto kurzu.

Obsah článku spadá pod licenciu Premium, kúpou článku súhlasíš so zmluvnými podmienkami.

Čo od nás v ďalších lekciách dostaneš?
  • Neobmedzený a trvalý prístup k jednotlivým lekciím.
  • Kvalitné znalosti v oblasti IT.
  • Zručnosti, ktoré ti pomôžu získať vysnívanú a dobre platenú prácu.

Popis článku

Požadovaný článok má nasledujúci obsah:

V kurze Neurónovej siete tentoraz preberieme rozdiely medzi batch, minibatch a stochastic gradient descent algoritmy.

Kredity získaš, keď podporíš našu sieť. To môžeš urobiť buď zaslaním symbolickej sumy na podporu prevádzky alebo pridaním obsahu na sieť.

Článok pre vás napísal Patrik Valkovič
Avatar
Věnuji se programování v C++ a C#. Kromě toho také programuji v PHP (Nette) a JavaScriptu (NodeJS).
Aktivity