Neuronales Netz/ neuron, datasience machine learning?

1 Antwort

In diesem Modell besteht das Neuron aus drei Hauptkomponenten:

  1. Eingänge (Inputs): Diese Inputs werden normalerweise durch bestimmte Merkmale oder Eigenschaften eines Datensatzes repräsentiert. Im obigen Bild sind es drei Eingänge, bezeichnet als input1, input2 und input3.
  2. Gewichtungen (Weights): Jeder Eingang ist mit einer Gewichtung verbunden. Gewichtungen zeigen an, wie wichtig oder relevant der jeweilige Eingang für das Neuron ist. Im Bild sind sie als weight1, weight2 und weight3 dargestellt. Diese Gewichtungen sind trainierbare Parameter und werden während des Lernprozesses angepasst, um das Modell zu verbessern.
  3. Summenzeichen (Summation): Die Ausgabe des Neurons wird durch die Aggregation der gewichteten Eingänge erreicht. Das bedeutet, dass jeder Eingang mit seiner Gewichtung multipliziert wird, und die Ergebnisse dieser Produkte werden summiert. Das Symbol in dem Kreis, das Sie als "Summenzeichen" bezeichnet haben, stellt genau diese Summation dar.

Die Ausgabe des Summenzeichens (Summation) wird an die sogenannte Schwellenwertfunktion (Threshold Function) weitergegeben, auch als Aktivierungsfunktion bezeichnet. Diese Funktion bestimmt, ob das Neuron aktiviert wird (also ein Signal weitergibt) oder nicht. Die Aktivierungsfunktion fügt eine nichtlineare Komponente in das Modell ein und ermöglicht es dem neuronalen Netzwerk, komplexe Zusammenhänge zu erfassen.

Joosh9 
Fragesteller
 17.07.2023, 20:40

Kann man den Wert, der in die threshold funktion übergeben wird mathematisch ausdrücken und dann die Threshold Funktion mathematisch beschreiben?

0
JanaKruppke  17.07.2023, 20:46
@Joosh9

Ja kann man. Vereinfacht könnte man es so zum Beispiel darstellen:

Summenzeichen = input1 * weight1 + input2 * weight2 + ... + input_n * weight_n

Die Summe kann man dann an die Threshold Funktion übergeben:

Threshold-Funktion(X) = {

  1, wenn X >= Schwellenwert

  0, wenn X < Schwellenwert

}

Beachte bitte, dass dies eine vereinfachte Darstellung einer Schwellenwert-Aktivierungsfunktion ist. In der Praxis werden oft andere nichtlineare Aktivierungsfunktionen wie die ReLU-Funktion, die Sigmoid-Funktion oder die tanh-Funktion verwendet, die eine kontinuierliche und differenzierbare Nichtlinearität bieten und so das Training von neuronalen Netzwerken effizienter machen.

1