Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
LeNet-5
Architecture pionnière de CNN introduite par Yann LeCun en 1998, conçue pour la reconnaissance de chiffres manuscrits avec 7 couches incluant convolutions, pooling et couches fully connected.
AlexNet
Réseau neuronal convolutif révolutionnaire de 2012 vainqueur d'ImageNet, introduisant ReLU, dropout et data augmentation à grande échelle avec 60 millions de paramètres.
VGGNet
Architecture CNN caractérisée par son utilisation exclusive de filtres 3x3 empilés, démontrant que la profondeur améliore les performances avec jusqu'à 19 couches.
Convolution Layer
Couche fondamentale appliquant des filtres apprenables sur l'entrée pour détecter des motifs spatiaux hiérarchiques à travers des opérations de convolution glissantes.
ReLU Activation
Fonction d'activation non-linéaire f(x)=max(0,x) accélérant la convergence et résolvant le problème de gradient évanescent comparé aux sigmoïdes.
Dropout
Technique de régularisation désactivant aléatoirement des neurones durant l'entraînement pour prévenir le surapprentissage et améliorer la généralisation.
Feature Maps
Sorties tridimensionnelles des couches de convolution représentant la présence de features spécifiques à différentes positions spatiales de l'entrée.
Filters/Kernels
Matrices de poids apprenables glissant sur l'entrée pour détecter des motifs spécifiques comme les bords, textures et formes complexes.
Fully Connected Layer
Couche finale où chaque neurone est connecté à tous les neurones de la couche précédente, effectuant la classification finale basée sur les features extraites.
Transfer Learning
Technique réutilisant les poids d'un modèle pré-entraîné sur de larges datasets pour accélérer l'apprentissage sur des tâches spécifiques avec moins de données.
Batch Normalization
Normalisation des activations entre couches stabilisant l'entraînement, permettant des taux d'apprentissage plus élevés et réduisant la sensibilité à l'initialisation.
Data Augmentation
Génération synthétique de données d'entraînement par transformations (rotations, flips, zooms) pour augmenter la diversité du dataset et améliorer la robustesse.
Local Response Normalization
Normalisation introduite dans AlexNet créant une compétition entre neurones adjacents pour améliorer la généralisation et réduire les activations excessives.