Divisione dei Nodi
Durante l'addestramento, è necessario trovare la migliore suddivisione in ogni nodo decisionale. Quando suddividiamo i dati in due nodi, l'obiettivo è che le diverse classi siano in nodi separati.
- Scenario migliore: tutti i punti dati in un nodo appartengono alla stessa classe;
- Scenario peggiore: un numero uguale di punti dati per ciascuna classe.
Impurità di Gini
Per valutare la qualità di una suddivisione, è possibile calcolare l'impurità di Gini. Essa rappresenta la probabilità che, selezionando casualmente due punti da un nodo (con reinserimento), essi appartengano a classi diverse. Più bassa è questa probabilità (impurità), migliore è la suddivisione.
È possibile calcolare l'impurità di Gini per classificazione binaria utilizzando la seguente formula:
textgini=1−p02−p12=1−(fracm0m)2−(fracm1m)2Dove
- mi - numero di istanze della classe i in un nodo;
- m - numero di istanze in un nodo;
- pi=fracmim - probabilità di scegliere la classe i.
Per classificazione multiclasse, la formula è:
textgini=1−sumi=0Cpi2=1−sumi=0C(fracmim)2Dove
- C - numero di classi.
La bontà della suddivisione può essere misurata calcolando la somma pesata dei punteggi di Gini per entrambi i nodi ottenuti da una suddivisione. Questo è il valore che si desidera minimizzare.
Per suddividere un nodo decisionale, è necessario trovare una caratteristica su cui suddividere e la soglia:
In un nodo decisionale, l'algoritmo seleziona in modo avido la soglia migliore per ciascuna caratteristica. Successivamente, sceglie la suddivisione con la minore impurità di Gini tra tutte le caratteristiche (in caso di parità, la scelta avviene casualmente).
Entropia
L'entropia è un'altra misura dell'impurità. Per un problema di classificazione binaria, l'entropia H di un nodo si calcola con la formula:
H(p)=−plog2(p)−(1−p)log2(1−p)dove:
- p è la proporzione di esempi positivi (classe 1);
- 1−p è la proporzione di esempi negativi (classe 0).
Per un problema di classificazione multiclasse, l'entropia H di un nodo si calcola con la formula:
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)dove:
- k è il numero di classi;
- pi è la proporzione di esempi appartenenti alla classe i nel nodo.
Analogamente all'impurità di Gini, è possibile valutare la qualità di una suddivisione calcolando la somma pesata dei valori di entropia per i nodi figli ottenuti dalla suddivisione. Questo è il valore che si desidera minimizzare per massimizzare il guadagno di informazione.
L'entropia è massima quando tutte le classi sono rappresentate in modo uguale. È minima (0) quando tutti gli esempi appartengono a una sola classe (nodo puro).
Grazie per i tuoi commenti!
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Awesome!
Completion rate improved to 4.17
Divisione dei Nodi
Scorri per mostrare il menu
Durante l'addestramento, è necessario trovare la migliore suddivisione in ogni nodo decisionale. Quando suddividiamo i dati in due nodi, l'obiettivo è che le diverse classi siano in nodi separati.
- Scenario migliore: tutti i punti dati in un nodo appartengono alla stessa classe;
- Scenario peggiore: un numero uguale di punti dati per ciascuna classe.
Impurità di Gini
Per valutare la qualità di una suddivisione, è possibile calcolare l'impurità di Gini. Essa rappresenta la probabilità che, selezionando casualmente due punti da un nodo (con reinserimento), essi appartengano a classi diverse. Più bassa è questa probabilità (impurità), migliore è la suddivisione.
È possibile calcolare l'impurità di Gini per classificazione binaria utilizzando la seguente formula:
textgini=1−p02−p12=1−(fracm0m)2−(fracm1m)2Dove
- mi - numero di istanze della classe i in un nodo;
- m - numero di istanze in un nodo;
- pi=fracmim - probabilità di scegliere la classe i.
Per classificazione multiclasse, la formula è:
textgini=1−sumi=0Cpi2=1−sumi=0C(fracmim)2Dove
- C - numero di classi.
La bontà della suddivisione può essere misurata calcolando la somma pesata dei punteggi di Gini per entrambi i nodi ottenuti da una suddivisione. Questo è il valore che si desidera minimizzare.
Per suddividere un nodo decisionale, è necessario trovare una caratteristica su cui suddividere e la soglia:
In un nodo decisionale, l'algoritmo seleziona in modo avido la soglia migliore per ciascuna caratteristica. Successivamente, sceglie la suddivisione con la minore impurità di Gini tra tutte le caratteristiche (in caso di parità, la scelta avviene casualmente).
Entropia
L'entropia è un'altra misura dell'impurità. Per un problema di classificazione binaria, l'entropia H di un nodo si calcola con la formula:
H(p)=−plog2(p)−(1−p)log2(1−p)dove:
- p è la proporzione di esempi positivi (classe 1);
- 1−p è la proporzione di esempi negativi (classe 0).
Per un problema di classificazione multiclasse, l'entropia H di un nodo si calcola con la formula:
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)dove:
- k è il numero di classi;
- pi è la proporzione di esempi appartenenti alla classe i nel nodo.
Analogamente all'impurità di Gini, è possibile valutare la qualità di una suddivisione calcolando la somma pesata dei valori di entropia per i nodi figli ottenuti dalla suddivisione. Questo è il valore che si desidera minimizzare per massimizzare il guadagno di informazione.
L'entropia è massima quando tutte le classi sono rappresentate in modo uguale. È minima (0) quando tutti gli esempi appartengono a una sola classe (nodo puro).
Grazie per i tuoi commenti!