🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

LeNet-5

Architecture pionnière de CNN introduite par Yann LeCun en 1998, conçue pour la reconnaissance de chiffres manuscrits avec 7 couches incluant convolutions, pooling et couches fully connected.

📖
termes

AlexNet

Réseau neuronal convolutif révolutionnaire de 2012 vainqueur d'ImageNet, introduisant ReLU, dropout et data augmentation à grande échelle avec 60 millions de paramètres.

📖
termes

VGGNet

Architecture CNN caractérisée par son utilisation exclusive de filtres 3x3 empilés, démontrant que la profondeur améliore les performances avec jusqu'à 19 couches.

📖
termes

Convolution Layer

Couche fondamentale appliquant des filtres apprenables sur l'entrée pour détecter des motifs spatiaux hiérarchiques à travers des opérations de convolution glissantes.

📖
termes

ReLU Activation

Fonction d'activation non-linéaire f(x)=max(0,x) accélérant la convergence et résolvant le problème de gradient évanescent comparé aux sigmoïdes.

📖
termes

Dropout

Technique de régularisation désactivant aléatoirement des neurones durant l'entraînement pour prévenir le surapprentissage et améliorer la généralisation.

📖
termes

Feature Maps

Sorties tridimensionnelles des couches de convolution représentant la présence de features spécifiques à différentes positions spatiales de l'entrée.

📖
termes

Filters/Kernels

Matrices de poids apprenables glissant sur l'entrée pour détecter des motifs spécifiques comme les bords, textures et formes complexes.

📖
termes

Fully Connected Layer

Couche finale où chaque neurone est connecté à tous les neurones de la couche précédente, effectuant la classification finale basée sur les features extraites.

📖
termes

Transfer Learning

Technique réutilisant les poids d'un modèle pré-entraîné sur de larges datasets pour accélérer l'apprentissage sur des tâches spécifiques avec moins de données.

📖
termes

Batch Normalization

Normalisation des activations entre couches stabilisant l'entraînement, permettant des taux d'apprentissage plus élevés et réduisant la sensibilité à l'initialisation.

📖
termes

Data Augmentation

Génération synthétique de données d'entraînement par transformations (rotations, flips, zooms) pour augmenter la diversité du dataset et améliorer la robustesse.

📖
termes

Local Response Normalization

Normalisation introduite dans AlexNet créant une compétition entre neurones adjacents pour améliorer la généralisation et réduire les activations excessives.

🔍

Aucun résultat trouvé