Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Prevenzione dell'Overfitting negli Alberi Decisionali | Albero Decisionale
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Classificazione con Python

bookPrevenzione dell'Overfitting negli Alberi Decisionali

Scorri per mostrare il menu

Prima di procedere con l'implementazione di un Decision Tree utilizzando Python, è necessario affrontare un argomento importante: overfitting - la principale sfida associata ai Decision Tree.

Di seguito è riportato un esempio di come il Decision Tree si adatti al dataset. Si noti come il modello si adatti ai dati di addestramento, catturandone schemi e particolarità:

Sebbene il modello adatti perfettamente il set di addestramento senza classificare erroneamente alcuna istanza, il problema è che i confini decisionali risultano troppo complessi. Di conseguenza, l'accuratezza sul test (o sulla cross-validazione) sarà significativamente inferiore rispetto a quella del set di addestramento, indicando che il modello soffre di overfitting.

La causa di ciò è che il modello effettua tante suddivisioni quante sono necessarie per adattarsi perfettamente ai dati di addestramento.

Fortunatamente, il Decision Tree è altamente configurabile, quindi è possibile regolare i suoi iperparametri per minimizzare l'overfitting.

Profondità Massima dell'Albero

La profondità di un nodo è la distanza (verticale) dal nodo alla radice dell'albero.

È possibile limitare la profondità massima di un albero decisionale, rendendolo più piccolo e meno soggetto a overfitting. Per ottenere ciò, i nodi decisionali alla profondità massima vengono trasformati in nodi foglia.

Di seguito è presente anche una gif che mostra come il confine decisionale cambia con diversi valori di profondità massima:

Numero minimo di campioni

Un altro modo per limitare l'albero è impostare il numero minimo di campioni sui nodi foglia. Questo rende il modello più semplice e più robusto rispetto ai valori anomali.

È possibile osservare come questo iperparametro influenzi il confine decisionale:

Entrambi questi iperparametri sono disponibili nell'implementazione dell'albero decisionale di scikit-learn.
Per impostazione predefinita, l'albero non ha vincoli: max_depth è impostato su None, il che significa che non c'è limite alla profondità, e min_samples_leaf è impostato su 1.

question mark

Scegli l'affermazione ERRATA.

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 3. Capitolo 3

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Sezione 3. Capitolo 3
some-alt