Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Regresión Polinómica | Sección
Fundamentos del Aprendizaje Supervisado

bookRegresión Polinómica

En el capítulo anterior, exploramos la regresión cuadrática, que tiene la gráfica de una parábola. De manera similar, se puede agregar a la ecuación para obtener la Regresión Cúbica, que presenta una gráfica más compleja. También se puede añadir x⁴ y así sucesivamente.

Grado de una Regresión Polinómica

En general, se denomina ecuación polinómica y corresponde a la ecuación de la Regresión Polinómica. La mayor potencia de x define el grado de una Regresión Polinómica en la ecuación. Aquí tienes un ejemplo

Regresión Polinómica de Grado N

Considerando n como un número entero mayor que dos, se puede escribir la ecuación de una Regresión Polinómica de grado n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Donde:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – son los parámetros del modelo;
  • ypredy_{\text{pred}} – es la predicción del objetivo;
  • xx – es el valor de la característica;
  • nn – es el grado de la Regresión Polinómica.

Ecuación Normal

Como siempre, los parámetros se encuentran utilizando la Ecuación Normal:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Donde:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – son los parámetros del modelo;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – es un arreglo de valores de características del conjunto de entrenamiento;
  • XkX^k – es la potencia elemento a elemento de kk del arreglo XX;
  • ytruey_{\text{true}} – es un arreglo de valores objetivo del conjunto de entrenamiento.

Regresión Polinómica con Múltiples Características

Para crear formas aún más complejas, se puede utilizar la Regresión Polinómica con más de una característica. Sin embargo, incluso con dos características, la Regresión Polinómica de grado 2 tiene una ecuación bastante extensa.

La mayoría de las veces, no se necesitará un modelo tan complejo. Los modelos más simples (como la Regresión Lineal Múltiple) suelen describir los datos suficientemente bien, y son mucho más fáciles de interpretar, visualizar y menos costosos computacionalmente.

question mark

Elige la afirmación INCORRECTA.

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 11

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

bookRegresión Polinómica

Desliza para mostrar el menú

En el capítulo anterior, exploramos la regresión cuadrática, que tiene la gráfica de una parábola. De manera similar, se puede agregar a la ecuación para obtener la Regresión Cúbica, que presenta una gráfica más compleja. También se puede añadir x⁴ y así sucesivamente.

Grado de una Regresión Polinómica

En general, se denomina ecuación polinómica y corresponde a la ecuación de la Regresión Polinómica. La mayor potencia de x define el grado de una Regresión Polinómica en la ecuación. Aquí tienes un ejemplo

Regresión Polinómica de Grado N

Considerando n como un número entero mayor que dos, se puede escribir la ecuación de una Regresión Polinómica de grado n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Donde:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – son los parámetros del modelo;
  • ypredy_{\text{pred}} – es la predicción del objetivo;
  • xx – es el valor de la característica;
  • nn – es el grado de la Regresión Polinómica.

Ecuación Normal

Como siempre, los parámetros se encuentran utilizando la Ecuación Normal:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Donde:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – son los parámetros del modelo;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – es un arreglo de valores de características del conjunto de entrenamiento;
  • XkX^k – es la potencia elemento a elemento de kk del arreglo XX;
  • ytruey_{\text{true}} – es un arreglo de valores objetivo del conjunto de entrenamiento.

Regresión Polinómica con Múltiples Características

Para crear formas aún más complejas, se puede utilizar la Regresión Polinómica con más de una característica. Sin embargo, incluso con dos características, la Regresión Polinómica de grado 2 tiene una ecuación bastante extensa.

La mayoría de las veces, no se necesitará un modelo tan complejo. Los modelos más simples (como la Regresión Lineal Múltiple) suelen describir los datos suficientemente bien, y son mucho más fáciles de interpretar, visualizar y menos costosos computacionalmente.

question mark

Elige la afirmación INCORRECTA.

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 11
some-alt