Gradient Descent
Gradient Descent is een optimalisatie-algoritme dat een functie minimaliseert door iteratief de parameters aan te passen in de richting van de grootste afname. Het is fundamenteel in machine learning omdat het modellen in staat stelt efficiënt te leren van data.
Gradienten begrijpen
De gradiënt van een functie geeft de richting en steilheid van de functie op een bepaald punt aan. Het geeft aan welke kant we op moeten bewegen om de functie te minimaliseren.
Voor een eenvoudige functie:
J(θ)=θ2De afgeleide (gradiënt) is:
∇J(θ)=dθd(θ2)=2θDit betekent dat voor elke waarde van θ, de gradiënt aangeeft hoe θ aangepast moet worden om af te dalen naar het minimum.
Formule voor Gradient Descent
De regel voor het bijwerken van gewichten is:
θ←θ−α∇J(θ)Waarbij:
- θ - modelparameter;
- α - leersnelheid (stapgrootte);
- ∇J(θ) - gradiënt van de functie die we willen minimaliseren.
Voor onze functie:
θnew=θold−α(2θold)Dit betekent dat we θ iteratief bijwerken door de geschaalde gradiënt af te trekken.
Stapsgewijze Beweging – Een Visueel Voorbeeld
Voorbeeld met startwaarden: θ=3, α=0.3
- θ1=3−0.3(2×3)=3−1.8=1.2;
- θ2=1.2−0.3(2×1.2)=1.2−0.72=0.48;
- θ3=0.48−0.3(2×0.48)=0.48−0.288=0.192;
- θ4=0.192−0.3(2×0.192)=0.192−0.115=0.077.
Na enkele iteraties bewegen we richting θ=0, het minimum.
Leerpercentage – α Verstandig Kiezen
- Te groot α - overschrijdt, convergeert nooit;
- Te klein α - convergeert te langzaam;
- Optimaal α - balans tussen snelheid & nauwkeurigheid.
Wanneer Stopt Gradient Descent?
Gradient descent stopt wanneer:
∇J(θ)≈0Dit betekent dat verdere aanpassingen onbeduidend zijn en dat een minimum is gevonden.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 1.96
Gradient Descent
Veeg om het menu te tonen
Gradient Descent is een optimalisatie-algoritme dat een functie minimaliseert door iteratief de parameters aan te passen in de richting van de grootste afname. Het is fundamenteel in machine learning omdat het modellen in staat stelt efficiënt te leren van data.
Gradienten begrijpen
De gradiënt van een functie geeft de richting en steilheid van de functie op een bepaald punt aan. Het geeft aan welke kant we op moeten bewegen om de functie te minimaliseren.
Voor een eenvoudige functie:
J(θ)=θ2De afgeleide (gradiënt) is:
∇J(θ)=dθd(θ2)=2θDit betekent dat voor elke waarde van θ, de gradiënt aangeeft hoe θ aangepast moet worden om af te dalen naar het minimum.
Formule voor Gradient Descent
De regel voor het bijwerken van gewichten is:
θ←θ−α∇J(θ)Waarbij:
- θ - modelparameter;
- α - leersnelheid (stapgrootte);
- ∇J(θ) - gradiënt van de functie die we willen minimaliseren.
Voor onze functie:
θnew=θold−α(2θold)Dit betekent dat we θ iteratief bijwerken door de geschaalde gradiënt af te trekken.
Stapsgewijze Beweging – Een Visueel Voorbeeld
Voorbeeld met startwaarden: θ=3, α=0.3
- θ1=3−0.3(2×3)=3−1.8=1.2;
- θ2=1.2−0.3(2×1.2)=1.2−0.72=0.48;
- θ3=0.48−0.3(2×0.48)=0.48−0.288=0.192;
- θ4=0.192−0.3(2×0.192)=0.192−0.115=0.077.
Na enkele iteraties bewegen we richting θ=0, het minimum.
Leerpercentage – α Verstandig Kiezen
- Te groot α - overschrijdt, convergeert nooit;
- Te klein α - convergeert te langzaam;
- Optimaal α - balans tussen snelheid & nauwkeurigheid.
Wanneer Stopt Gradient Descent?
Gradient descent stopt wanneer:
∇J(θ)≈0Dit betekent dat verdere aanpassingen onbeduidend zijn en dat een minimum is gevonden.
Bedankt voor je feedback!