 Desafio: Implementando uma Random Forest
Desafio: Implementando uma Random Forest
No sklearn, a versão de classificação da Random Forest é implementada usando o RandomForestClassifier:
Você também calculará a acurácia da validação cruzada utilizando a função cross_val_score():
Ao final, será exibida a importância de cada atributo. O atributo feature_importances_ retorna um array com os escores de importância — esses escores representam o quanto cada atributo contribuiu para reduzir a impureza de Gini em todos os nós de decisão onde esse atributo foi utilizado. Em outras palavras, quanto mais um atributo ajuda a dividir os dados de forma útil, maior sua importância.
No entanto, o atributo fornece apenas os escores sem os nomes dos atributos. Para exibir ambos, é possível associá-los utilizando a função zip() do Python:
for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)
Isso imprime cada nome de atributo junto com seu escore de importância, facilitando a compreensão de quais atributos o modelo mais utilizou.
Swipe to start coding
Você recebe um conjunto de dados do Titanic armazenado como um DataFrame na variável df.
- Inicialize o modelo de Random Forest, defina random_state=42, treine-o e armazene o modelo ajustado na variávelrandom_forest.
- Calcule as pontuações de validação cruzada para o modelo treinado utilizando 10divisões, e armazene os resultados na variávelcv_scores.
Solução
Obrigado pelo seu feedback!
single
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo
Awesome!
Completion rate improved to 4.17 Desafio: Implementando uma Random Forest
Desafio: Implementando uma Random Forest
Deslize para mostrar o menu
No sklearn, a versão de classificação da Random Forest é implementada usando o RandomForestClassifier:
Você também calculará a acurácia da validação cruzada utilizando a função cross_val_score():
Ao final, será exibida a importância de cada atributo. O atributo feature_importances_ retorna um array com os escores de importância — esses escores representam o quanto cada atributo contribuiu para reduzir a impureza de Gini em todos os nós de decisão onde esse atributo foi utilizado. Em outras palavras, quanto mais um atributo ajuda a dividir os dados de forma útil, maior sua importância.
No entanto, o atributo fornece apenas os escores sem os nomes dos atributos. Para exibir ambos, é possível associá-los utilizando a função zip() do Python:
for feature, importance in zip(X.columns, model.feature_importances_):
    print(feature, importance)
Isso imprime cada nome de atributo junto com seu escore de importância, facilitando a compreensão de quais atributos o modelo mais utilizou.
Swipe to start coding
Você recebe um conjunto de dados do Titanic armazenado como um DataFrame na variável df.
- Inicialize o modelo de Random Forest, defina random_state=42, treine-o e armazene o modelo ajustado na variávelrandom_forest.
- Calcule as pontuações de validação cruzada para o modelo treinado utilizando 10divisões, e armazene os resultados na variávelcv_scores.
Solução
Obrigado pelo seu feedback!
single