Division des Nœuds
Lors de l'entraînement, il est nécessaire de trouver la meilleure séparation à chaque nœud de décision. Lorsque les données sont divisées en deux nœuds, l'objectif est que les différentes classes se retrouvent dans des nœuds distincts.
- Meilleur cas possible : tous les points de données d'un nœud appartiennent à la même classe ;
- Pire cas possible : un nombre égal de points de données pour chaque classe.
Impureté de Gini
Pour évaluer la qualité d'une séparation, il est possible de calculer l'impureté de Gini. Il s'agit de la probabilité que, si l'on prend au hasard deux points dans un nœud (avec remise), ils appartiennent à des classes différentes. Plus cette probabilité (impureté) est faible, meilleure est la séparation.
Vous pouvez calculer l'impureté de Gini pour la classification binaire à l'aide de la formule suivante :
gini=1−p02−p12=1−(mm0)2−(mm1)2Où
- mi - nombre d'instances de la classe i dans un nœud ;
- m - nombre d'instances dans un nœud ;
- pi=mmi - probabilité de choisir la classe i.
Et pour la classification multiclasse, la formule est :
gini=1−i=0∑Cpi2=1−i=0∑C(mmi)2Où
- C - nombre de classes.
La qualité de la séparation peut être mesurée en prenant la somme pondérée des scores de Gini pour les deux nœuds obtenus après une séparation. C'est cette valeur que l'on cherche à minimiser.
Pour séparer un nœud de décision, il est nécessaire d'identifier une caractéristique sur laquelle effectuer la séparation ainsi que le seuil correspondant :
Au niveau d’un nœud de décision, l’algorithme recherche de manière gloutonne le meilleur seuil pour chaque caractéristique. Il choisit ensuite la séparation ayant la plus faible impureté de Gini parmi toutes les caractéristiques (en cas d’égalité, le choix est fait aléatoirement).
Entropie
L’entropie est une autre mesure de l’impureté. Pour un problème de classification binaire, l’entropie H d’un nœud est calculée à l’aide de la formule :
H(p)=−plog2(p)−(1−p)log2(1−p)où :
- p est la proportion d’exemples positifs (classe 1) ;
- 1−p est la proportion d’exemples négatifs (classe 0).
Pour un problème de classification multiclasse, l’entropie H d’un nœud est calculée à l’aide de la formule :
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)où :
- k est le nombre de classes ;
- pi est la proportion d’exemples appartenant à la classe i dans le nœud.
De manière similaire à l’impureté de Gini, il est possible d’évaluer la qualité d’une séparation en calculant la somme pondérée des valeurs d’entropie pour les nœuds enfants issus de la séparation. C’est cette valeur que l’on cherche à minimiser afin de maximiser le gain d’information.
L'entropie est maximale lorsque toutes les classes sont également représentées. Elle est minimale (0) lorsque tous les exemples appartiennent à une seule classe (nœud pur).
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Génial!
Completion taux amélioré à 3.33
Division des Nœuds
Glissez pour afficher le menu
Lors de l'entraînement, il est nécessaire de trouver la meilleure séparation à chaque nœud de décision. Lorsque les données sont divisées en deux nœuds, l'objectif est que les différentes classes se retrouvent dans des nœuds distincts.
- Meilleur cas possible : tous les points de données d'un nœud appartiennent à la même classe ;
- Pire cas possible : un nombre égal de points de données pour chaque classe.
Impureté de Gini
Pour évaluer la qualité d'une séparation, il est possible de calculer l'impureté de Gini. Il s'agit de la probabilité que, si l'on prend au hasard deux points dans un nœud (avec remise), ils appartiennent à des classes différentes. Plus cette probabilité (impureté) est faible, meilleure est la séparation.
Vous pouvez calculer l'impureté de Gini pour la classification binaire à l'aide de la formule suivante :
gini=1−p02−p12=1−(mm0)2−(mm1)2Où
- mi - nombre d'instances de la classe i dans un nœud ;
- m - nombre d'instances dans un nœud ;
- pi=mmi - probabilité de choisir la classe i.
Et pour la classification multiclasse, la formule est :
gini=1−i=0∑Cpi2=1−i=0∑C(mmi)2Où
- C - nombre de classes.
La qualité de la séparation peut être mesurée en prenant la somme pondérée des scores de Gini pour les deux nœuds obtenus après une séparation. C'est cette valeur que l'on cherche à minimiser.
Pour séparer un nœud de décision, il est nécessaire d'identifier une caractéristique sur laquelle effectuer la séparation ainsi que le seuil correspondant :
Au niveau d’un nœud de décision, l’algorithme recherche de manière gloutonne le meilleur seuil pour chaque caractéristique. Il choisit ensuite la séparation ayant la plus faible impureté de Gini parmi toutes les caractéristiques (en cas d’égalité, le choix est fait aléatoirement).
Entropie
L’entropie est une autre mesure de l’impureté. Pour un problème de classification binaire, l’entropie H d’un nœud est calculée à l’aide de la formule :
H(p)=−plog2(p)−(1−p)log2(1−p)où :
- p est la proportion d’exemples positifs (classe 1) ;
- 1−p est la proportion d’exemples négatifs (classe 0).
Pour un problème de classification multiclasse, l’entropie H d’un nœud est calculée à l’aide de la formule :
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)où :
- k est le nombre de classes ;
- pi est la proportion d’exemples appartenant à la classe i dans le nœud.
De manière similaire à l’impureté de Gini, il est possible d’évaluer la qualité d’une séparation en calculant la somme pondérée des valeurs d’entropie pour les nœuds enfants issus de la séparation. C’est cette valeur que l’on cherche à minimiser afin de maximiser le gain d’information.
L'entropie est maximale lorsque toutes les classes sont également représentées. Elle est minimale (0) lorsque tous les exemples appartiennent à une seule classe (nœud pur).
Merci pour vos commentaires !