16. diel - Neurónové siete - Dokončenie krížovej entropie
V minulej lekcii, Neurónové siete – Krížová entropia , sme prebrali stratovú funkciu cross entropy a binary cross entropy.
V tejto lekcii tutoriálu Neurónovej siete - Pokročilé rozšírime naše znalosti krížovej entropie - cross entropy. Pozrieme sa na variant multi-class a na negative log-likelihood.
Prečo je binary cross entropy lepší ako MSE
V predchádzajúcej lekcii nám grafy zobrazili niečo veľmi zaujímavé.
Presnosť BCE sa zvyšovala oveľa rýchlejšie v porovnaní s MSE loss
funkciou, aj keď model bol rovnaký. Prečo tomu tak je? Táto skutočnosť
súvisí s aktivačnou funkciou sigmoid a binary cross
entropy. Pripomeňme si graf funkcie sigmoid
a jej
deriváciu:
def sig(x): return 1 / (1 + np.exp(-x)) x = np.arange(-6, 6, 0.1) plt.figure(figsize=(12,4)) plt.plot(x, sig(x), label="function") plt.plot(x, sig(x)*(1-sig(x)), label="derivative") plt.title("Sigmoid") plt.legend() plt.show()
Priebeh funkcie a jej derivácia v grafe:
...koniec náhľadu článku...
Pokračuj ďalej
Minul si až sem a to je super! Veríme, že ti prvé lekcie ukázali niečo nového a užitočného.
Chceš v kurze pokračovať? Prejdi do prémiové sekcie.
Kúpiť tento kurz
Pred kúpou tohto článku je potrebné kúpiť predchádzajúci diel
Obsah článku spadá pod licenciu Premium, kúpou článku súhlasíš so zmluvnými podmienkami.
- Neobmedzený a trvalý prístup k jednotlivým lekciím.
- Kvalitné znalosti v oblasti IT.
- Zručnosti, ktoré ti pomôžu získať vysnívanú a dobre platenú prácu.
Popis článku
Požadovaný článok má nasledujúci obsah:
V tejto lekcii tutoriálu Neurónovej siete - Pokročilé nadviažeme na krížovú entropiu a pozrieme sa na variant "multi-class" a na "negative log-likelihood".
Kredity získaš, keď podporíš našu sieť. To môžeš urobiť buď zaslaním symbolickej sumy na podporu prevádzky alebo pridaním obsahu na sieť.