Konstruksjon av alternativ stokastisk gradientalgoritmen ved bruk av stokastisk analyse og optimal kontrollteori.
Master thesis
Permanent lenke
https://hdl.handle.net/11250/3076259Utgivelsesdato
2023Metadata
Vis full innførselSamlinger
Sammendrag
Oppgaven viser at den stokastiske gradientalgoritmen med en minibatch størrelse r:x_(k+1) = x_k − η/r sum_(i=1)^n ∇f_i(x_k)1_δ(k+1)(i)konvergerer i fordeling, når læringsraten η → 0 mot løsningen av den stokastiskedifferensialligningen:dXt = −∇f(Xt)dt + (¯ηΣ(Xt))^1/2dBt t > 0X_0 = x_0 x_0 ∈ R^dBasert på dette resultatet skal vi konstruere av en alternativ stokastisk gradientalgoritme ved bruk av stokastisk analyse og kontrollteori.