Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Regressão Linear com N Variáveis | Seção
Fundamentos do Aprendizado Supervisionado

bookRegressão Linear com N Variáveis

Equação de Regressão Linear com N Variáveis

Como vimos, adicionar uma nova variável ao modelo de regressão linear é tão simples quanto incluí-la junto com o novo parâmetro na equação do modelo. Podemos adicionar muito mais do que dois parâmetros dessa forma.

Note
Nota

Considere n como um número inteiro maior que dois.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Onde:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – são os parâmetros do modelo;
  • ypredy_{\text{pred}} – é a previsão do alvo;
  • x1x_1 – é o valor da primeira variável;
  • x2x_2 – é o valor da segunda variável;
  • \dots
  • xnx_n – é o valor da n-ésima variável.

Equação Normal

O único problema é a visualização. Se tivermos dois parâmetros, precisamos construir um gráfico 3D. Mas se tivermos mais de dois parâmetros, o gráfico será de mais de três dimensões. Porém, vivemos em um mundo tridimensional e não conseguimos imaginar gráficos de dimensões superiores. No entanto, não é necessário visualizar o resultado. Só precisamos encontrar os parâmetros para que o modelo funcione. Felizmente, é relativamente fácil encontrá-los. A tradicional Equação Normal nos ajudará:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Onde:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – são os parâmetros do modelo;
  • X~\tilde{X} – é uma matriz que contém 1s como primeira coluna, e X1XnX_1 - X_n como as demais colunas:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – é um array dos valores da k-ésima variável do conjunto de treino;
  • ytruey_{\text{true}} – é um array dos valores alvo do conjunto de treino.

Matriz X̃

Observe que apenas a matriz foi alterada. É possível considerar as colunas dessa matriz como sendo cada uma responsável por seu parâmetro β. O vídeo a seguir explica esse conceito.

A primeira coluna de 1s é necessária para encontrar o parâmetro β₀.

question mark

Escolha a afirmação INCORRETA.

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 6

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

bookRegressão Linear com N Variáveis

Deslize para mostrar o menu

Equação de Regressão Linear com N Variáveis

Como vimos, adicionar uma nova variável ao modelo de regressão linear é tão simples quanto incluí-la junto com o novo parâmetro na equação do modelo. Podemos adicionar muito mais do que dois parâmetros dessa forma.

Note
Nota

Considere n como um número inteiro maior que dois.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Onde:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – são os parâmetros do modelo;
  • ypredy_{\text{pred}} – é a previsão do alvo;
  • x1x_1 – é o valor da primeira variável;
  • x2x_2 – é o valor da segunda variável;
  • \dots
  • xnx_n – é o valor da n-ésima variável.

Equação Normal

O único problema é a visualização. Se tivermos dois parâmetros, precisamos construir um gráfico 3D. Mas se tivermos mais de dois parâmetros, o gráfico será de mais de três dimensões. Porém, vivemos em um mundo tridimensional e não conseguimos imaginar gráficos de dimensões superiores. No entanto, não é necessário visualizar o resultado. Só precisamos encontrar os parâmetros para que o modelo funcione. Felizmente, é relativamente fácil encontrá-los. A tradicional Equação Normal nos ajudará:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Onde:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – são os parâmetros do modelo;
  • X~\tilde{X} – é uma matriz que contém 1s como primeira coluna, e X1XnX_1 - X_n como as demais colunas:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – é um array dos valores da k-ésima variável do conjunto de treino;
  • ytruey_{\text{true}} – é um array dos valores alvo do conjunto de treino.

Matriz X̃

Observe que apenas a matriz foi alterada. É possível considerar as colunas dessa matriz como sendo cada uma responsável por seu parâmetro β. O vídeo a seguir explica esse conceito.

A primeira coluna de 1s é necessária para encontrar o parâmetro β₀.

question mark

Escolha a afirmação INCORRETA.

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 6
some-alt