Conteúdo do Curso
Classification with Python
5. Comparando Modelos
Classification with Python
Resumo da Árvore de Decisão
Vamos agora analisar algumas peculiaridades das Árvores de Decisão.
- Interpretabilidade.
Ao contrário da maioria dos algoritmos de Aprendizado de Máquina, Árvores de Decisão são fáceis de visualizar e interpretar. - Não requer preparação de dados.
Árvore de Decisão requer nenhuma ou muito pouca preparação de dados. Não é necessário escalonamento/normalização. Também pode lidar com valores ausentes e não sofre tanto com valores discrepantes. - Fornece importâncias de recursos.
Durante o treinamento, uma Árvore de Decisão calcula as importâncias dos recursos que representam o impacto de cada recurso na formação da árvore. Você pode obter as importâncias dos recursos através do atributo.feature_importances_
. - Complexidade computacional.
Suponha que m seja o número de recursos e n seja o número de instâncias de treinamento. A complexidade de treinamento de uma Árvore de Decisão é O(n·m·log(m)), então o treinamento é bastante rápido, a menos que haja um grande número de recursos. Além disso, a complexidade da predição é O(log(n)), então as previsões são rápidas! - Não adequado para grandes conjuntos de dados.
Embora as Árvores de Decisão possam funcionar bem para pequenos conjuntos, geralmente não funcionam bem para grandes conjuntos de dados. O uso de Florestas Aleatórias é preferível para grandes conjuntos de dados. - Árvores de Decisão são instáveis.
Pequenas alterações em hiperparâmetros ou dados podem levar a uma árvore muito diferente. Embora seja uma desvantagem para uma única Árvore, isso nos beneficiará em uma Floresta Aleatória, como você verá na próxima seção.
E aqui está um pequeno resumo:
Vantagens | Desvantagens |
Interpretável | Overfitting |
Treino rápido | Instável |
Previsões rápidas | Não adequado para grandes conjuntos de dados |
Não requer escalonamento de características | |
Fornece importâncias de características | |
Geralmente robusto a outliers |
Tudo estava claro?
Seção 3. Capítulo 5
Conteúdo do Curso
Classification with Python
5. Comparando Modelos
Classification with Python
Resumo da Árvore de Decisão
Vamos agora analisar algumas peculiaridades das Árvores de Decisão.
- Interpretabilidade.
Ao contrário da maioria dos algoritmos de Aprendizado de Máquina, Árvores de Decisão são fáceis de visualizar e interpretar. - Não requer preparação de dados.
Árvore de Decisão requer nenhuma ou muito pouca preparação de dados. Não é necessário escalonamento/normalização. Também pode lidar com valores ausentes e não sofre tanto com valores discrepantes. - Fornece importâncias de recursos.
Durante o treinamento, uma Árvore de Decisão calcula as importâncias dos recursos que representam o impacto de cada recurso na formação da árvore. Você pode obter as importâncias dos recursos através do atributo.feature_importances_
. - Complexidade computacional.
Suponha que m seja o número de recursos e n seja o número de instâncias de treinamento. A complexidade de treinamento de uma Árvore de Decisão é O(n·m·log(m)), então o treinamento é bastante rápido, a menos que haja um grande número de recursos. Além disso, a complexidade da predição é O(log(n)), então as previsões são rápidas! - Não adequado para grandes conjuntos de dados.
Embora as Árvores de Decisão possam funcionar bem para pequenos conjuntos, geralmente não funcionam bem para grandes conjuntos de dados. O uso de Florestas Aleatórias é preferível para grandes conjuntos de dados. - Árvores de Decisão são instáveis.
Pequenas alterações em hiperparâmetros ou dados podem levar a uma árvore muito diferente. Embora seja uma desvantagem para uma única Árvore, isso nos beneficiará em uma Floresta Aleatória, como você verá na próxima seção.
E aqui está um pequeno resumo:
Vantagens | Desvantagens |
Interpretável | Overfitting |
Treino rápido | Instável |
Previsões rápidas | Não adequado para grandes conjuntos de dados |
Não requer escalonamento de características | |
Fornece importâncias de características | |
Geralmente robusto a outliers |
Tudo estava claro?
Seção 3. Capítulo 5