Ganancia de Información y Entropía
Entropía condicional
Medida de la incertidumbre restante sobre una variable aleatoria Y cuando se conoce el valor de otra variable X, esencial para el cálculo de la ganancia de información. Representa la entropía promedio de las distribuciones condicionales de Y dado cada valor de X.
← Volver