Boosting de Gradiente
Gradient Boosting é uma técnica poderosa de aprendizagem de conjunto com boosting para tarefas de classificação e regressão.
Como funciona o Gradient Boosting?
- Inicialização do Modelo Base: O processo começa com a inicialização de um modelo básico como o primeiro aprendiz fraco. Este modelo inicial faz previsões, mas elas podem não ser muito precisas.
- Cálculo do Resíduo: A diferença entre os valores alvo reais e as previsões do modelo atual é calculada. Essas diferenças, conhecidas como resíduos ou erros, representam os "resíduos" que o próximo modelo tentará corrigir.
- Ajuste do Novo Modelo: Um novo aprendiz fraco é ajustado para prever os resíduos da etapa anterior. Este novo modelo visa corrigir os erros cometidos pelo modelo anterior.
- Combinação de Previsões: As previsões do novo modelo são adicionadas às previsões do modelo anterior. As previsões combinadas começam a se aproximar mais dos valores alvo reais.
- Processo Iterativo: As etapas 3 e 4 são repetidas por um número especificado de iterações (ou até que um critério de parada seja atendido). Em cada iteração, um novo modelo é ajustado para prever os resíduos das previsões combinadas das iterações anteriores.
- Previsão Final: Após completar todas as iterações, a previsão final é obtida pela soma das previsões dos aprendizes fracos. Este conjunto de modelos forma um aprendiz forte que aprendeu a corrigir os erros dos modelos anteriores.
Nota
Também podemos calcular a importância das características usando o atributo
.feature_importances_
do modelo treinado.
Exemplo
Nota
É importante notar que as classes
GradientBoostingRegressor
eGradientBoostingClassifier
em Python são projetadas para usar apenasDecisionTreeRegressor
eDecisionTreeClassifier
como modelos base de um conjunto!
Code Description
GradientBoostingClassifier
instance named clf
is created.The parameter
n_estimators
is set to 100
, indicating the number of boosting iterations to perform during training.clf
classifier is trained on the training data (X_train, y_train)
using the .fit(
method.During each boosting iteration, a decision tree classifier is fit to the negative gradient of the loss function with respect to the current predictions.
(X_test)
are made using the trained classifier's .predict()
method.The predicted labels are stored in the
y_pred
array.
Tudo estava claro?
Conteúdo do Curso
Ensemble Learning
1. Princípios Básicos da Construção de Modelos de Ensemble
2. Modelos de Bagging Comumente Utilizados
Ensemble Learning
Boosting de Gradiente
Gradient Boosting é uma técnica poderosa de aprendizagem de conjunto com boosting para tarefas de classificação e regressão.
Como funciona o Gradient Boosting?
- Inicialização do Modelo Base: O processo começa com a inicialização de um modelo básico como o primeiro aprendiz fraco. Este modelo inicial faz previsões, mas elas podem não ser muito precisas.
- Cálculo do Resíduo: A diferença entre os valores alvo reais e as previsões do modelo atual é calculada. Essas diferenças, conhecidas como resíduos ou erros, representam os "resíduos" que o próximo modelo tentará corrigir.
- Ajuste do Novo Modelo: Um novo aprendiz fraco é ajustado para prever os resíduos da etapa anterior. Este novo modelo visa corrigir os erros cometidos pelo modelo anterior.
- Combinação de Previsões: As previsões do novo modelo são adicionadas às previsões do modelo anterior. As previsões combinadas começam a se aproximar mais dos valores alvo reais.
- Processo Iterativo: As etapas 3 e 4 são repetidas por um número especificado de iterações (ou até que um critério de parada seja atendido). Em cada iteração, um novo modelo é ajustado para prever os resíduos das previsões combinadas das iterações anteriores.
- Previsão Final: Após completar todas as iterações, a previsão final é obtida pela soma das previsões dos aprendizes fracos. Este conjunto de modelos forma um aprendiz forte que aprendeu a corrigir os erros dos modelos anteriores.
Nota
Também podemos calcular a importância das características usando o atributo
.feature_importances_
do modelo treinado.
Exemplo
Nota
É importante notar que as classes
GradientBoostingRegressor
eGradientBoostingClassifier
em Python são projetadas para usar apenasDecisionTreeRegressor
eDecisionTreeClassifier
como modelos base de um conjunto!
Code Description
GradientBoostingClassifier
instance named clf
is created.The parameter
n_estimators
is set to 100
, indicating the number of boosting iterations to perform during training.clf
classifier is trained on the training data (X_train, y_train)
using the .fit(
method.During each boosting iteration, a decision tree classifier is fit to the negative gradient of the loss function with respect to the current predictions.
(X_test)
are made using the trained classifier's .predict()
method.The predicted labels are stored in the
y_pred
array.
Tudo estava claro?