Vis enkel innførsel

dc.contributor.advisorNilssen, Torstein Kastberg
dc.contributor.authorBeil-Myhre, Bjarte
dc.date.accessioned2023-07-05T16:24:04Z
dc.date.available2023-07-05T16:24:04Z
dc.date.issued2023
dc.identifierno.uia:inspera:143808320:70275638
dc.identifier.urihttps://hdl.handle.net/11250/3076259
dc.description.abstractOppgaven viser at den stokastiske gradientalgoritmen med en minibatch størrelse r: x_(k+1) = x_k − η/r sum_(i=1)^n ∇f_i(x_k)1_δ(k+1)(i) konvergerer i fordeling, når læringsraten η → 0 mot løsningen av den stokastiske differensialligningen: dXt = −∇f(Xt)dt + (¯ηΣ(Xt))^1/2dBt t > 0 X_0 = x_0 x_0 ∈ R^d Basert på dette resultatet skal vi konstruere av en alternativ stokastisk gradientalgoritme ved bruk av stokastisk analyse og kontrollteori.
dc.description.abstract
dc.language
dc.publisherUniversity of Agder
dc.titleKonstruksjon av alternativ stokastisk gradientalgoritmen ved bruk av stokastisk analyse og optimal kontrollteori.
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel