Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Desafío: Ajuste de una Recta con Descenso por Gradiente | Análisis Matemático
Matemáticas para Ciencia de Datos

bookDesafío: Ajuste de una Recta con Descenso por Gradiente

Tarea

Swipe to start coding

Un estudiante desea utilizar el descenso por gradiente para ajustar una línea recta a un conjunto de datos que muestra años de experiencia frente a salario (en miles). El objetivo es encontrar la línea que mejor se ajusta ajustando la pendiente (mm) y la intersección (bb) mediante actualizaciones iterativas.

Se debe minimizar la función de pérdida:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Las reglas de actualización del descenso por gradiente son:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Donde:

  • α\alpha es la tasa de aprendizaje (tamaño del paso);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} es la derivada parcial de la función de pérdida respecto a mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} es la derivada parcial de la función de pérdida respecto a bb.

Tarea:

  1. Completar el código Python a continuación para implementar los pasos del descenso por gradiente.
  2. Rellenar las expresiones faltantes utilizando operaciones básicas de Python.
  3. Registrar cómo cambian m y b a medida que se ejecuta el algoritmo.

Solución

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 3. Capítulo 11
single

single

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

close

Awesome!

Completion rate improved to 1.96

bookDesafío: Ajuste de una Recta con Descenso por Gradiente

Desliza para mostrar el menú

Tarea

Swipe to start coding

Un estudiante desea utilizar el descenso por gradiente para ajustar una línea recta a un conjunto de datos que muestra años de experiencia frente a salario (en miles). El objetivo es encontrar la línea que mejor se ajusta ajustando la pendiente (mm) y la intersección (bb) mediante actualizaciones iterativas.

Se debe minimizar la función de pérdida:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Las reglas de actualización del descenso por gradiente son:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Donde:

  • α\alpha es la tasa de aprendizaje (tamaño del paso);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} es la derivada parcial de la función de pérdida respecto a mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} es la derivada parcial de la función de pérdida respecto a bb.

Tarea:

  1. Completar el código Python a continuación para implementar los pasos del descenso por gradiente.
  2. Rellenar las expresiones faltantes utilizando operaciones básicas de Python.
  3. Registrar cómo cambian m y b a medida que se ejecuta el algoritmo.

Solución

Switch to desktopCambia al escritorio para practicar en el mundo realContinúe desde donde se encuentra utilizando una de las siguientes opciones
¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 3. Capítulo 11
single

single

some-alt