Information Gain et Entropie
Conditional Entropy
Mesure de l'incertitude restante sur une variable aléatoire Y lorsqu'on connaît la valeur d'une autre variable X, essentielle pour le calcul du gain d'information. Représente l'entropie moyenne des distributions conditionnelles de Y sachant chaque valeur de X.
← Retour