AutoML Interprétable
Explicabilité vs Interprétabilité
Distinction où l'interprétabilité concerne la compréhension intrinsèque du mécanisme du modèle, tandis que l'explicabilité vise à fournir des justifications compréhensibles des prédictions, même pour modèles opaques.
← Retour