category-banner

Fonction d'optimisation dans Deep Learning Training Ppt

Rating:
90%

You must be logged in to download this presentation.

Favourites
Loading...

Caractéristiques de ces diapositives de présentation PowerPoint :

Présentation de la fonction d'optimiseur dans Deep Learning. Ces diapositives sont réalisées à 100 % dans PowerPoint et sont compatibles avec tous les types d'écrans et de moniteurs. Ils prennent également en charge Google Slides. Support client Premium disponible. Convient pour une utilisation par les gestionnaires, les employés et les organisations. Ces diapositives sont facilement personnalisables. Vous pouvez modifier la couleur, le texte, l'icône et la taille de la police en fonction de vos besoins.

People who downloaded this PowerPoint presentation also viewed the following :

Contenu de cette présentation Powerpoint

Diapositive 1

Cette diapositive répertorie les fonctions de l'optimiseur dans le cadre de Deep Learning. Ceux-ci incluent la descente de gradient stochastique, adagrad, adadelta et adam (estimation adaptative du moment).

Diapositive 2

Cette diapositive indique que la stabilité de la convergence de la descente de gradient stochastique est préoccupante, et la question du minimum local émerge ici. Les fonctions de perte variant considérablement, le calcul du minimum global prend du temps.

Diapositive 3

Cette diapositive indique qu'il n'est pas nécessaire d'ajuster manuellement le taux d'apprentissage avec cette fonction Adagrad. Cependant, l'inconvénient fondamental est que le taux d'apprentissage continue de baisser. Par conséquent, lorsque le taux d'apprentissage diminue trop à chaque itération, le modèle n'acquiert pas plus d'informations.

Diapositive 4

Cette diapositive indique que dans Adadelta, le taux d'apprentissage décroissant est résolu, des taux d'apprentissage distincts sont calculés pour chaque paramètre et la dynamique est déterminée. La principale distinction est que cela n'enregistre pas les niveaux d'impulsion individuels pour chaque paramètre ; et la fonction d'optimisation d'Adam corrige ce problème.

Diapositive 5

Cette diapositive décrit que, par rapport à d'autres modèles adaptatifs, les taux de convergence sont plus élevés dans le modèle d'Adam. Des taux d'apprentissage adaptatifs pour chaque paramètre sont pris en charge. Comme l'élan est pris en compte pour chaque paramètre, cela est couramment utilisé dans tous les modèles d'apprentissage en profondeur. Le modèle d'Adam est très efficace et rapide.

 

Ratings and Reviews

90% of 100
Write a review
Most Relevant Reviews

2 Item(s)

per page:
  1. 100%

    by Murphy Green

    Very unique, user-friendly presentation interface.
  2. 80%

    by Dong Santos

    The design is very attractive, informative, and eye-catching, with bold colors that stand out against all the basic presentation templates. 

2 Item(s)

per page: