Détail de l'auteur
Auteur Simon Roburin |
Documents disponibles écrits par cet auteur (1)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Optimization of deep neural networks: A functional perspective with applications in image classification / Simon Roburin (2022)
Titre : Optimization of deep neural networks: A functional perspective with applications in image classification Type de document : Thèse/HDR Auteurs : Simon Roburin, Auteur ; Mathieu Aubry, Directeur de thèse Editeur : Champs-sur-Marne : Ecole des Ponts ParisTech Année de publication : 2022 Importance : 141 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de Doctorat de l'Ecole des Ponts ParisTech, spécialité Mathématiques AppliquéesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse de groupement
[Termes IGN] apprentissage profond
[Termes IGN] classification par nuées dynamiques
[Termes IGN] mathématiques appliquées
[Termes IGN] optimisation (mathématiques)
[Termes IGN] vision par ordinateurIndex. décimale : THESE Thèses et HDR Résumé : (auteur) Despite numerous successes in a wide range of industrial and scientific applications, the learning process of deep neural networks is poorly understood. Loosely speaking, learning aims at finding the network parameters that not only minimize the network errors on a set of training examples but also yield correct predictions on unseen data. Under the prism of optimization, it boils down to minimizing a high dimensional non-convex function. Generalization can generally be expected when one has access to very large datasets and assumes that both training examples and unseen data are sampled from identically independently distributed random variables. The goal of this thesis is to develop analytical tools to better understand neural network optimization and to improve the design of training algorithms in the context of image classification. Note de contenu : 1- Introduction
2- Literature review
3- Impact of Normalization Layers on Optimization
4- Avoid learning spurious correlations
5- ConclusionNuméro de notice : 24098 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Note de thèse : Thèse de Doctorat : Mathématiques Appliquées : Ponts ParisTech : 2022 Organisme de stage : LIGM-IMAGINE En ligne : https://hal.science/tel-03968114v1 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=102573