Ein Gradient ist ein Vektor in Richtung des größten Anstiegs einer Funktion. Das Video erklärt, wie man das ausrechnet und zeigt anschaulich, warum der berechnete Vektor auch tatsächlich die gewünschte Eigenschaft hat. Gradienten spielen eine wichtige Rolle bei Optimierungsverfahren ("Gradientenmethode"), z.B. beim Trainieren neuronaler Netze ("gradient descent"-Methode).
0:00 Einleitung
1:34 Gradient einer linearen Funktion
6:08 Richtung des stärksten Anstiegs
11:38 Beweis mit Vektoren
15:43 Eigenschaften des Gradienten
19:26 1, 2 und n-dimensional
29:10 Gradient bei _nicht_-linearen Funktionen
37:08 partielle Ableitungen
42:04 Optimierung
46:07 Beispiel: Training neuronaler Netze
49:36 Plateaus vermeiden