00:00:00 / 00:00:00

Gradient descent for wide two-layer neural networks

De Francis Bach

Apparaît dans la collection : Optimization for Machine Learning / Optimisation pour l’apprentissage automatique

Neural networks trained to minimize the logistic (a.k.a. cross-entropy) loss with gradient-based methods are observed to perform well in many supervised classification tasks. Towards understanding this phenomenon, we analyze the training and generalization behavior of infinitely wide two-layer neural networks with homogeneous activations. We show that the limits of the gradient flow on exponentially tailed losses can be fully characterized as a max-margin classifier in a certain non-Hilbertian space of functions.

Informations sur la vidéo

Données de citation

  • DOI 10.24350/CIRM.V.19622703
  • Citer cette vidéo BACH, Francis (12/03/2020). Gradient descent for wide two-layer neural networks. CIRM. Audiovisual resource. DOI: 10.24350/CIRM.V.19622703
  • URL https://dx.doi.org/10.24350/CIRM.V.19622703

Dernières questions liées sur MathOverflow

Pour poser une question, votre compte Carmin.tv doit être connecté à mathoverflow

Poser une question sur MathOverflow




Inscrivez-vous

  • Mettez des vidéos en favori
  • Ajoutez des vidéos à regarder plus tard &
    conservez votre historique de consultation
  • Commentez avec la communauté
    scientifique
  • Recevez des notifications de mise à jour
    de vos sujets favoris
Donner son avis