La entropía cruzada mide la diferencia entre la distribución de probabilidad real de un conjunto de datos y la distribución de probabilidad estimad...
La entropía cruzada mide la diferencia entre la distribución de probabilidad real de un conjunto de datos y la distribución de probabilidad estimada utilizando un modelo. Se utiliza en aprendizaje automático para evaluar la eficacia de los modelos de predicción.
Compartir