🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Weight Sharing

Méthode où plusieurs connexions neuronales partagent les mêmes paramètres pour réduire significativement le nombre de poids uniques.

📖
termes

Low-Rank Factorization

Décomposition des matrices de poids en produits de matrices de rang inférieur pour compresser les couches denses du réseau.

📖
termes

Tensor Decomposition

Technique avancée factorisant les tenseurs de poids convolutifs en tenseurs plus simples pour réduire la complexité computationnelle.

📖
termes

Sparse Coding

Représentation des activations avec de nombreux coefficients nuls, permettant une compression efficace et un calcul accéléré.

📖
termes

Huffman Coding

Algorithme de compression sans perte assignant des codes binaires de longueur variable aux poids selon leur fréquence d'apparition.

📖
termes

Model Splitting

Division d'un modèle en segments distribués entre clients et serveur pour minimiser la communication tout en préservant la confidentialité.

📖
termes

Parameter Binarization

Conversion des poids en valeurs binaires (+1/-1) pour réduire drastiquement la mémoire et accélérer les calculs sur dispositifs limités.

📖
termes

Federated Averaging

Algorithme d'agrégation pondérant les mises à jour locales des modèles selon la taille des datasets clients pour convergence globale.

📖
termes

Model Pruning Ratio

Pourcentage de poids ou neurones éliminés du modèle original, déterminant le niveau de compression appliqué.

📖
termes

Quantization-aware Training

Entraînement intégrant les effets de la quantification pour minimiser la dégradation des performances post-compression.

🔍

Aucun résultat trouvé