Pierre Tarrago - Convergence en moyenne quadratique de gradients stochastiques adaptatifs dans le cas fortement convexe

Séminaire « Probabilités et Statistique »


Dans cet exposé, j'expliquerai les grandes lignes des méthodes de
descente de gradient stochastique adaptative. Ces méthodes
d'optimisation stochastique sont particulièrement efficaces pour trouver
les minima locaux de fonctions dépendant de manière hétérogène d'un
échantillon arrivant séquentiellement. Après avoir rappelé les
différents résultats de convergence asymptotique existant pour ces
méthodes, j'exposerai un travail récent donnant une borne sur la
distance en moyenne quadratique dans le cas où la fonction est fortement
convexe. Travail en collaboration avec Antoine Godichon-Baggioni."


Partager sur X Partager sur Facebook