web-dev-qa-db-fra.com

Quelle est la différence entre une descente en pente et une montée en pente?

Je n'arrive pas à trouver quoi que ce soit à propos de la montée progressive. N'importe quel bon lien entre la montée d'un gradient et sa différence avec la descente d'un gradient aiderait.

16
user2714423

Ce n'est pas différent L'ascension de gradient est simplement le processus de maximisation, au lieu de minimisation, d'une fonction de perte. Tout le reste est tout à fait pareil. L'ascension pour une fonction de perte, pourrait-on dire, est comme une descente de gradient sur le négatif de cette fonction de perte.

20
Sean Owen

En règle générale, vous utiliseriez l'ascension sur gradient pour maximiser une fonction de vraisemblance et la descente sur gradient pour minimiser une fonction de coût. La descente et la montée en pente sont pratiquement les mêmes. Laissez-moi vous donner un exemple concret en utilisant un simple algorithme convivial d’optimisation basé sur un gradient avec une fonction de probabilité/coût concav/convexe: la régression logistique.

Malheureusement, SO ne semble toujours pas supporter LaTeX, alors laissez-moi poster quelques captures d'écran.

La fonction de probabilité que vous souhaitez maximiser dans la régression logistique est 

enter image description here

où "phi" est simplement la fonction sigmoïde

enter image description here

Maintenant, vous voulez une fonction concave pour l’ascension progressive, prenez donc le journal:

enter image description here

De même, vous pouvez simplement l'écrire en tant que son inverse pour obtenir la fonction de coût que vous pouvez minimiser via la descente de gradient.

enter image description here

Pour la log-vraisemblance, vous dérivez et appliquez le gradient croissant comme suit:

enter image description here

enter image description here

Puisque vous voulez mettre à jour tous les poids simultanément, écrivons-le comme

enter image description here

Maintenant, il devrait être assez évident de voir que la mise à jour de descente de gradient est la même que celle de montée ascendante, gardez seulement à l’esprit que nous la formulons comme "faisant un pas dans la direction opposée de la pente de la fonction de coût"

enter image description here

J'espère que cela répond à votre question!

16
Sebastian

La descente de gradient est utilisée pour minimiser une fonction particulière, tandis que la montée en gradient est utilisée pour maximiser une fonction.

Découvrez ceci http://www.speech.sri.com/people/anand/771/html/node33.html

7
vishalg

Gradient est un autre mot pour pente. La pente positive du graphique en un point (x, y) signifie que le graphique est incliné vers le haut en un point (x, y). D'autre part, le gradient négatif du graphique en un point (x, y) signifie que le graphique est incliné vers le bas en un point (x, y). 

La descente de gradient est un algorithme itératif utilisé pour trouver un ensemble de thêta minimisant la valeur d'une fonction de coût. Par conséquent, l’ascension de gradient produirait un ensemble de thêta maximisant la valeur d’une fonction de coût. 

1
John Doe

Si vous voulez minimiser une fonction, nous utilisons Gradient Descent. Pour par exemple. en apprentissage en profondeur, nous voulons minimiser la fonction de perte et utiliser Gradient Descent.

Si vous voulez maximiser une fonction, nous utilisons Gradient Ascent. Pour par exemple. Dans l’apprentissage par renforcement - Méthodes Gradient de politique, notre objectif est de maximiser la fonction récompense/rendement attendu et nous utilisons donc l’ascension de gradient.

0
Shriram