Neuronen, Perceptrons

  • Hi, ich habe im Zuge meines Lernens ein paar Fragen:
    1) Hat jedes Neuron prinzipiell IMMER einen Bias? a0 hat ja den fixen Wert 1. Könnte man den dann quasi negieren, in dem man w0,j auf 0 setzt?
    2) Was genau ist der Unterschied (falls es überhaupt einen gibt) zwischen einem Neuron und einem Perceptron? In den Folien steht ja was von wegen "no shared weights", was für mich nicht ganz klar ist. Wie kanns überhaupt shared weights geben? Ist damit gemeint, dass, falls es mehrere mögliche Outputpfade gibt, bei jedem das Gewicht einzigartig ist?

  • Ich glaube, dass nur Neuronen einen Bias haben und wenn keiner hingeschrieben wird nimmt man 1 als Bias an.
    Bei Perceptrons steht nix in den Folien, dass es einen Bias gibt und ich glaube das Beispiel aus den Folien "eki_06_neural_networks.1nup.pdf" auf Seite 23 würde nicht funktionieren wenn alle Perceptrons einen Bias von 1 hätten.


    Das angesprochene Beispiel aus den Folien:Perceptrons.jpg


    Und ja ich glaube das ist der einzige Unterschied zwischen Neuronen und Perceptrons.