Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Sfida: Adattamento di una Retta con Discesa del Gradiente | Analisi Matematica
Matematica per la Data Science

bookSfida: Adattamento di una Retta con Discesa del Gradiente

Compito

Swipe to start coding

Uno studente desidera utilizzare il gradient descent per adattare una retta a un dataset che mostra anni di esperienza rispetto al salario (in migliaia). L'obiettivo è trovare la retta che meglio si adatta ai dati regolando la pendenza (mm) e l'intercetta (bb) tramite aggiornamenti iterativi.

È necessario minimizzare la funzione di perdita:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Le regole di aggiornamento del gradient descent sono:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Dove:

  • α\alpha è il tasso di apprendimento (step size);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} è la derivata parziale della funzione di perdita rispetto a mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} è la derivata parziale della funzione di perdita rispetto a bb.

Compito:

  1. Completare il codice Python sottostante per implementare i passaggi del gradient descent.
  2. Inserire le espressioni mancanti utilizzando le operazioni di base di Python.
  3. Monitorare come m e b cambiano durante l'esecuzione dell'algoritmo.

Soluzione

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 3. Capitolo 11
single

single

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

close

Awesome!

Completion rate improved to 1.96

bookSfida: Adattamento di una Retta con Discesa del Gradiente

Scorri per mostrare il menu

Compito

Swipe to start coding

Uno studente desidera utilizzare il gradient descent per adattare una retta a un dataset che mostra anni di esperienza rispetto al salario (in migliaia). L'obiettivo è trovare la retta che meglio si adatta ai dati regolando la pendenza (mm) e l'intercetta (bb) tramite aggiornamenti iterativi.

È necessario minimizzare la funzione di perdita:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Le regole di aggiornamento del gradient descent sono:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Dove:

  • α\alpha è il tasso di apprendimento (step size);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} è la derivata parziale della funzione di perdita rispetto a mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} è la derivata parziale della funzione di perdita rispetto a bb.

Compito:

  1. Completare il codice Python sottostante per implementare i passaggi del gradient descent.
  2. Inserire le espressioni mancanti utilizzando le operazioni di base di Python.
  3. Monitorare come m e b cambiano durante l'esecuzione dell'algoritmo.

Soluzione

Switch to desktopCambia al desktop per esercitarti nel mondo realeContinua da dove ti trovi utilizzando una delle opzioni seguenti
Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 3. Capitolo 11
single

single

some-alt