🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

SHAP Force Plot

Une visualisation interactive qui montre comment chaque caractéristique pousse la prédiction d'un modèle depuis la valeur de base (moyenne) jusqu'à la prédiction finale pour une observation spécifique.

📖
용어

SHAP Dependence Plot

Une visualisation qui montre l'effet d'une caractéristique sur la prédiction, similaire à un PDP, mais en utilisant les valeurs SHAP pour capturer les interactions et les effets non linéaires.

📖
용어

LIME Explanation

Une représentation graphique qui montre les caractéristiques locales les plus influentes pour une prédiction spécifique, en créant un modèle interprétable simplifié autour de l'observation.

📖
용어

Neural Network Architecture Diagram

Un schéma visuel qui représente les couches, les neurones, les connexions et les flux de données d'un réseau de neurones pour illustrer sa structure complexe.

📖
용어

Class Activation Map (CAM)

Une carte de chaleur qui superpose sur l'image d'entrée les régions les plus importantes pour la prédiction d'une classe spécifique par un réseau de neurones convolutif.

📖
용어

Gradient-weighted Class Activation Mapping (Grad-CAM)

Une amélioration du CAM qui utilise les gradients du score de classe par rapport aux cartes de caractéristiques finales pour créer des visualisations plus précises des régions d'intérêt.

📖
용어

T-SNE Projection

Une visualisation qui réduit la dimensionnalité des données pour projeter les observations dans un espace 2D ou 3D, préservant les structures locales et révélant les clusters.

📖
용어

UMAP Visualization

Une technique de projection non linéaire qui préserve à la plus la structure globale et locale des données dans une visualisation à faible dimension, souvent plus rapide que t-SNE.

📖
용어

Learning Curve Visualization

Un graphique qui montre la performance du modèle sur les ensembles d'entraînement et de validation en fonction de la taille des données pour diagnostiquer le surapprentissage ou le sous-apprentissage.

📖
용어

Permutation Importance Plot

Un graphique qui montre l'importance des caractéristiques en mesurant la diminution de performance du modèle lorsque les valeurs d'une caractéristique sont aléatoirement permutées.

📖
용어

Friedman's H-statistic Visualization

Un graphique qui représente la force des interactions entre caractéristiques dans un modèle, basé sur la statistique H de Friedman pour quantifier les effets d'interaction.

📖
용어

Moran's I Plot

Une visualisation qui représente l'autocorrélation spatiale des résidus d'un modèle pour détecter les dépendances spatiales non modélisées dans les données géographiques.

🔍

결과를 찾을 수 없습니다