Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Mehrstufige Rückpropagation | Abschnitt
PyTorch-Grundlagen für ML-Ingenieure

bookMehrstufige Rückpropagation

Wie Tensorflow ermöglicht auch PyTorch das Erstellen komplexerer Rechen-Graphen mit mehreren Zwischentensoren.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Der Gradient von output_mean bezüglich x wird mithilfe der Kettenregel berechnet. Das Ergebnis zeigt, wie stark eine kleine Änderung in jedem Element von x den output_mean beeinflusst.

Deaktivieren der Gradientenverfolgung

In bestimmten Fällen empfiehlt sich das Deaktivieren der Gradientenverfolgung, um Speicher und Rechenleistung zu sparen. Da requires_grad=False das Standardverhalten ist, kann der Tensor ohne Angabe dieses Parameters erstellt werden:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Aufgabe

Swipe to start coding

Aufgabe ist der Aufbau eines einfachen neuronalen Netzes in PyTorch. Ziel ist die Berechnung des Gradienten des Loss bezüglich der Gewichtsmatrix.

  1. Definition einer zufälligen Gewichtsmatrix (Tensor) W der Form 1x3, initialisiert mit Werten aus einer gleichverteilten Zufallsverteilung über [0, 1], mit aktiviertem Gradienten-Tracking.
  2. Erstellung einer Eingabematrix (Tensor) X basierend auf dieser Liste: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Durchführung der Matrixmultiplikation zwischen W und X zur Berechnung von Y.
  4. Berechnung des mittleren quadratischen Fehlers (MSE): loss = mean((Y - Ytarget)2).
  5. Berechnung des Gradienten des Loss (loss) bezüglich W mittels Backpropagation.
  6. Ausgabe des berechneten Gradienten von W.

Lösung

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 12
single

single

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

close

bookMehrstufige Rückpropagation

Swipe um das Menü anzuzeigen

Wie Tensorflow ermöglicht auch PyTorch das Erstellen komplexerer Rechen-Graphen mit mehreren Zwischentensoren.

12345678910111213
import torch # Create a 2D tensor with gradient tracking x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]], requires_grad=True) # Define intermediate layers y = 6 * x + 3 z = 10 * y ** 2 # Compute the mean of the final output output_mean = z.mean() print(f"Output: {output_mean}") # Perform backpropagation output_mean.backward() # Print the gradient of x print("Gradient of x:\n", x.grad)
copy

Der Gradient von output_mean bezüglich x wird mithilfe der Kettenregel berechnet. Das Ergebnis zeigt, wie stark eine kleine Änderung in jedem Element von x den output_mean beeinflusst.

Deaktivieren der Gradientenverfolgung

In bestimmten Fällen empfiehlt sich das Deaktivieren der Gradientenverfolgung, um Speicher und Rechenleistung zu sparen. Da requires_grad=False das Standardverhalten ist, kann der Tensor ohne Angabe dieses Parameters erstellt werden:

x = torch.tensor([[1.0, 2.0, 3.0], [3.0, 2.0, 1.0]])
Aufgabe

Swipe to start coding

Aufgabe ist der Aufbau eines einfachen neuronalen Netzes in PyTorch. Ziel ist die Berechnung des Gradienten des Loss bezüglich der Gewichtsmatrix.

  1. Definition einer zufälligen Gewichtsmatrix (Tensor) W der Form 1x3, initialisiert mit Werten aus einer gleichverteilten Zufallsverteilung über [0, 1], mit aktiviertem Gradienten-Tracking.
  2. Erstellung einer Eingabematrix (Tensor) X basierend auf dieser Liste: [[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]].
  3. Durchführung der Matrixmultiplikation zwischen W und X zur Berechnung von Y.
  4. Berechnung des mittleren quadratischen Fehlers (MSE): loss = mean((Y - Ytarget)2).
  5. Berechnung des Gradienten des Loss (loss) bezüglich W mittels Backpropagation.
  6. Ausgabe des berechneten Gradienten von W.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 12
single

single

some-alt