web-dev-qa-db-fra.com

Quelle est la différence entre un réseau de neurones à rétro-propagation et un réseau de neurones?

Quelle est la différence entre les réseaux de neurones rétro-propagation et feed-forward?

En cherchant sur Google et en lisant, j'ai trouvé que, dans le feed-forward, il n'y avait qu'une direction dans le sens inverse, mais qu'en rétrodiffusion, il fallait une propagation en avant, puis en retour. J'ai référé à ce lien

  1. Une autre différence que la direction du flux? Qu'en est-il du calcul du poids? Le résultat? 
  2. Supposons que je mette en œuvre une rétro-propagation, c’est-à-dire qu’elle contient des flux aller et retour. La rétro-propagation est-elle suffisante pour montrer un feed-forward?
25
Unmesha SreeVeni
  • A Réseau neuronal Feed-Forward est un type de réseau neuronal architecture dans lequel les connexions sont "nourries à l'avance", c'est-à-dire ne forment pas de cycles (comme dans les réseaux récurrents).

  • Le terme "Feed forward" est également utilisé lorsque vous saisissez quelque chose au niveau de la couche d'entrée et qu'il permet de déplacer de l'entrée à la couche masquée et de la couche masquée à la couche de sortie. 
    Les valeurs sont "avancées".

Ces deux utilisations de l'expression "feed forward" se situent dans un contexte qui n'a rien à voir avec la formation en soi.

  • La rétropropagation est un algorithme training consistant en 2 étapes: 1) Feed forward les valeurs 2) calcule l'erreur et la propage en arrière vers les couches précédentes. Donc, pour être précis, la propagation en aval fait partie de la rétropropagation algorithm mais précède la propagation en arrière.
44
runDOSrun

Il n’existe pas de pure rétropropagation ni de réseau de neuralt pur.

Backpropagation est un algorithme pour entraîner (ajuster le poids) du réseau neuronal . L'entrée pour backpropagation est output_vector, target_output_vector.

Feed-forward est un algorithme permettant de calculer le vecteur de sortie à partir du vecteur d'entrée . L'entrée pour Feed-Forward est input_vector, La sortie est output_vector.

Lorsque vous vous entraînez à un réseau de neurones, vous devez utiliser les deux algorithmes.

Lorsque vous utilisez un réseau neuronal (formé), vous utilisez uniquement le feed-forward.

Le type de réseau de neurones de Bacis est un perceptron multicouche, qui est un réseau neuronal de propagation par propagation.

Il existe également des types plus avancés de réseaux de neurones, utilisant des algorithmes modifiés.

Aussi une bonne source à étudier: ftp://ftp.sas.com/pub/neural/FAQ.html Le meilleur principe à comprendre est de le programmer (tutoriel dans cette vidéo) https: // www.youtube.com/watch?v=kkwX7FkLfug

9
user4545181

Les réseaux de neurones peuvent avoir différentes architectures. Les connexions entre leurs neurones déterminent la direction du flux d'informations. En fonction des connexions réseau, ils sont classés dans les catégories suivantes: Feed-Forward et Recurrent (rétro-propagation).

Réseaux de neurones Feed Forward

Dans ces types de réseaux de neurones, l’information circule dans une seule direction, c’est-à-dire de la couche d’entrée à la couche de sortie. Une fois que les poids sont déterminés, ils ne sont généralement pas modifiés. On décide explicitement des poids ou utilise des fonctions telles que la fonction de base radiale pour décider des poids. Les nœuds ici font leur travail sans savoir si les résultats sont exacts ou non (c’est-à-dire qu’ils ne se réajustent pas en fonction du résultat obtenu). Il n'y a pas de communication en retour des couches à venir.

Réseaux de neurones récurrents (à propagation arrière)

L'information passe de la couche d'entrée à la couche de sortie pour produire le résultat. Une erreur dans le résultat est alors communiquée aux couches précédentes. Les nœuds apprennent à quel point ils ont contribué à l'erreur de réponse. Les poids sont réajustés. Le réseau de neurones est amélioré. Il apprend. Il y a un flux d'informations bidirectionnel. Cela a fondamentalement les deux algorithmes implémentés, feed-forward et back-propagation.

2
Ananth Raj Singh