Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Resumo da Árvore de Decisão | Decision Tree
course content

Conteúdo do Curso

Classification with Python

Resumo da Árvore de DecisãoResumo da Árvore de Decisão

Vamos agora analisar algumas peculiaridades das Árvores de Decisão.

  1. Interpretabilidade.
    Ao contrário da maioria dos algoritmos de Aprendizado de Máquina, Árvores de Decisão são fáceis de visualizar e interpretar.
  2. Não requer preparação de dados.
    Árvore de Decisão requer nenhuma ou muito pouca preparação de dados. Não é necessário escalonamento/normalização. Também pode lidar com valores ausentes e não sofre tanto com valores discrepantes.
  3. Fornece importâncias de recursos.
    Durante o treinamento, uma Árvore de Decisão calcula as importâncias dos recursos que representam o impacto de cada recurso na formação da árvore. Você pode obter as importâncias dos recursos através do atributo .feature_importances_.
  4. Complexidade computacional.
    Suponha que m seja o número de recursos e n seja o número de instâncias de treinamento. A complexidade de treinamento de uma Árvore de Decisão é O(n·m·log(m)), então o treinamento é bastante rápido, a menos que haja um grande número de recursos. Além disso, a complexidade da predição é O(log(n)), então as previsões são rápidas!
  5. Não adequado para grandes conjuntos de dados.
    Embora as Árvores de Decisão possam funcionar bem para pequenos conjuntos, geralmente não funcionam bem para grandes conjuntos de dados. O uso de Florestas Aleatórias é preferível para grandes conjuntos de dados.
  6. Árvores de Decisão são instáveis.
    Pequenas alterações em hiperparâmetros ou dados podem levar a uma árvore muito diferente. Embora seja uma desvantagem para uma única Árvore, isso nos beneficiará em uma Floresta Aleatória, como você verá na próxima seção.

E aqui está um pequeno resumo:

VantagensDesvantagens
InterpretávelOverfitting
Treino rápidoInstável
Previsões rápidasNão adequado para grandes conjuntos de dados
Não requer escalonamento de características
Fornece importâncias de características
Geralmente robusto a outliers

Tudo estava claro?

Seção 3. Capítulo 5
course content

Conteúdo do Curso

Classification with Python

Resumo da Árvore de DecisãoResumo da Árvore de Decisão

Vamos agora analisar algumas peculiaridades das Árvores de Decisão.

  1. Interpretabilidade.
    Ao contrário da maioria dos algoritmos de Aprendizado de Máquina, Árvores de Decisão são fáceis de visualizar e interpretar.
  2. Não requer preparação de dados.
    Árvore de Decisão requer nenhuma ou muito pouca preparação de dados. Não é necessário escalonamento/normalização. Também pode lidar com valores ausentes e não sofre tanto com valores discrepantes.
  3. Fornece importâncias de recursos.
    Durante o treinamento, uma Árvore de Decisão calcula as importâncias dos recursos que representam o impacto de cada recurso na formação da árvore. Você pode obter as importâncias dos recursos através do atributo .feature_importances_.
  4. Complexidade computacional.
    Suponha que m seja o número de recursos e n seja o número de instâncias de treinamento. A complexidade de treinamento de uma Árvore de Decisão é O(n·m·log(m)), então o treinamento é bastante rápido, a menos que haja um grande número de recursos. Além disso, a complexidade da predição é O(log(n)), então as previsões são rápidas!
  5. Não adequado para grandes conjuntos de dados.
    Embora as Árvores de Decisão possam funcionar bem para pequenos conjuntos, geralmente não funcionam bem para grandes conjuntos de dados. O uso de Florestas Aleatórias é preferível para grandes conjuntos de dados.
  6. Árvores de Decisão são instáveis.
    Pequenas alterações em hiperparâmetros ou dados podem levar a uma árvore muito diferente. Embora seja uma desvantagem para uma única Árvore, isso nos beneficiará em uma Floresta Aleatória, como você verá na próxima seção.

E aqui está um pequeno resumo:

VantagensDesvantagens
InterpretávelOverfitting
Treino rápidoInstável
Previsões rápidasNão adequado para grandes conjuntos de dados
Não requer escalonamento de características
Fornece importâncias de características
Geralmente robusto a outliers

Tudo estava claro?

Seção 3. Capítulo 5
some-alt