Lors de la formation d'un réseau neuronal multicouche, l'utilisation d'une fonction d'activation sigmoïdale est nécessaire pour apprendre efficacement. Y a-t-il un avantage à utiliser une fonction d'activation sigmoïdale lors de l'entraînement d'une perceptron simple, ou est-ce qu'une simple fonction d'étape (heaviside) est suffisante (ou même préférable)? Je commence lentement à comprendre les réseaux de neurones, mais toute aide serait appréciée.Fonction d'activation lors de l'apprentissage d'un perceptron monocouche
2
A
Répondre
3
Oui, il y a un avantage. Le résultat peut être quelque chose entre 0 et 1 et ne doit pas être OUI ou NON, mais aussi PEUT-ÊTRE. Même pour un modèle à un seul neurone, il est préférable d'avoir une fonction d'activation sans étape.
Si vous en avez besoin, cela dépend de la façon dont votre sortie est lue. Avez-vous besoin de valeurs binaires (OUI, NON) ou de quelque chose d'intermédiaire?
Je pense que vous pourriez également utiliser une fonction linéaire, si vous ne voulez pas utiliser une fonction sigmoïdale.