Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Challenge: Solving Task Using XGBoost | Commonly Used Boosting Models
Ensemble Learning

Svep för att visa menyn

book
Challenge: Solving Task Using XGBoost

Uppgift

Swipe to start coding

The "Credit Scoring" dataset is commonly used for credit risk analysis and binary classification tasks. It contains information about customers and their credit applications, with the goal of predicting whether a customer's credit application will result in a good or bad credit outcome.

Your task is to solve classification task on "Credit Scoring" dataset:

  1. Create Dmatrix objects using training and test data. Specify enable_categorical argument to use categorical features.
  2. Train the XGBoost model using the training DMatrix object.
  3. Set the split threshold to 0.5 for correct class detection.

Note

'objective': 'binary:logistic' parameter means that we will use logistic loss (also known as binary cross-entropy loss) as an objective function when training the XGBoost model.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 3. Kapitel 6
Vi beklagar att något gick fel. Vad hände?

Fråga AI

expand
ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

book
Challenge: Solving Task Using XGBoost

Uppgift

Swipe to start coding

The "Credit Scoring" dataset is commonly used for credit risk analysis and binary classification tasks. It contains information about customers and their credit applications, with the goal of predicting whether a customer's credit application will result in a good or bad credit outcome.

Your task is to solve classification task on "Credit Scoring" dataset:

  1. Create Dmatrix objects using training and test data. Specify enable_categorical argument to use categorical features.
  2. Train the XGBoost model using the training DMatrix object.
  3. Set the split threshold to 0.5 for correct class detection.

Note

'objective': 'binary:logistic' parameter means that we will use logistic loss (also known as binary cross-entropy loss) as an objective function when training the XGBoost model.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 3. Kapitel 6
Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Vi beklagar att något gick fel. Vad hände?
some-alt