Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Utmaning: Implementering av en Random Forest | Random Forest
Klassificering med Python

bookUtmaning: Implementering av en Random Forest

I sklearn implementeras klassificeringsversionen av Random Forest med hjälp av RandomForestClassifier:

Du kommer även att beräkna korsvalideringsnoggrannheten med funktionen cross_val_score():

Till sist kommer du att skriva ut vikten för varje variabel. Attributet feature_importances_ returnerar en array med viktsiffror – dessa siffror visar hur mycket varje variabel bidrog till att minska Gini-orenheten över alla beslutsknutar där den variabeln användes. Med andra ord, ju mer en variabel hjälper till att dela upp datan på ett användbart sätt, desto högre blir dess vikt.

Attributet ger dock endast siffror utan variabelnamn. För att visa båda kan du para ihop dem med Pythons zip()-funktion:

for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)

Detta skriver ut varje variabelnamn tillsammans med dess viktsiffra, vilket gör det enklare att förstå vilka variabler modellen förlitade sig mest på.

Uppgift

Swipe to start coding

Du har fått en Titanic-dataset lagrad som en DataFrame i variabeln df.

  • Initiera Random Forest-modellen, sätt random_state=42, träna den och spara den tränade modellen i variabeln random_forest.
  • Beräkna korsvalideringspoängen för den tränade modellen med hjälp av 10 vikningar och spara de resulterande poängen i variabeln cv_scores.

Lösning

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 4. Kapitel 3
single

single

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

close

Awesome!

Completion rate improved to 4.17

bookUtmaning: Implementering av en Random Forest

Svep för att visa menyn

I sklearn implementeras klassificeringsversionen av Random Forest med hjälp av RandomForestClassifier:

Du kommer även att beräkna korsvalideringsnoggrannheten med funktionen cross_val_score():

Till sist kommer du att skriva ut vikten för varje variabel. Attributet feature_importances_ returnerar en array med viktsiffror – dessa siffror visar hur mycket varje variabel bidrog till att minska Gini-orenheten över alla beslutsknutar där den variabeln användes. Med andra ord, ju mer en variabel hjälper till att dela upp datan på ett användbart sätt, desto högre blir dess vikt.

Attributet ger dock endast siffror utan variabelnamn. För att visa båda kan du para ihop dem med Pythons zip()-funktion:

for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)

Detta skriver ut varje variabelnamn tillsammans med dess viktsiffra, vilket gör det enklare att förstå vilka variabler modellen förlitade sig mest på.

Uppgift

Swipe to start coding

Du har fått en Titanic-dataset lagrad som en DataFrame i variabeln df.

  • Initiera Random Forest-modellen, sätt random_state=42, träna den och spara den tränade modellen i variabeln random_forest.
  • Beräkna korsvalideringspoängen för den tränade modellen med hjälp av 10 vikningar och spara de resulterande poängen i variabeln cv_scores.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 4. Kapitel 3
single

single

some-alt