- Kuidas GAN -i kaotus töötab?
- Kas GAN -i kaotamise funktsioonid on tõesti olulised?
- Mis on GAN -meetod?
- Miks on GAN ebastabiilne??
Kuidas GAN -i kaotus töötab?
Wassersteini kaotust kasutav GAN hõlmab diskrimineerija mõiste muutmist kriitikuks, mida uuendatakse sagedamini (nt.g. viis korda sagedamini) kui generaatori mudel. Kriitik hindab tõenäosuse ennustamise asemel pilte reaalse väärtusega.
Kas GAN -i kaotamise funktsioonid on tõesti olulised?
Meie analüüs näitab, et kadumisfunktsioonid on edukad ainult siis, kui need on degenereeritud peaaegu lineaarseteks. Samuti näitame, et kadumisfunktsioonid toimivad halvasti, kui neid ei degenereerita, ja et kadumisfunktsioonina saab kasutada paljusid funktsioone, kui need on seadistamisega piisavalt degenereeritud.
Mis on GAN -meetod?
Generatiivne võistlev võrk (GAN) on masinõppe (ML) mudel, milles kaks närvivõrku konkureerivad üksteisega, et nende prognoosid täpsemaks muuta. GAN-id töötavad tavaliselt järelevalveta ja kasutavad õppimiseks ühist nullsumma mänguraamistikku.
Miks on GAN ebastabiilne??
Asjaolu, et GAN-id koosnevad kahest võrgust ja igaühel neist on oma kadumisfunktsioon, toob kaasa asjaolu, et GAN-id on oma olemuselt ebastabiilsed- sukeldudes probleemi veidi sügavamale, võib generaatori (G) kaotus põhjustada GAN-i ebastabiilsuse , mis võib olla gradiendi kadumise probleemi põhjuseks, kui ...