🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Tenseur

Structure de données multidimensionnelle généralisant les vecteurs et les matrices, représentée par un tableau d'ordre N où N est le nombre de dimensions ou modes.

📖
termes

Décomposition CANDECOMP/PARAFAC (CP)

Factorisation tensorielle décomposant un tenseur en une somme minimale de tenseurs de rang un, représentant les interactions latentes entre les différents modes.

📖
termes

Décomposition en Mode Unique (Unique PARAFAC)

Variante de la décomposition CP imposant une contrainte d'unicité sur les facteurs de chaque mode pour améliorer l'interprétabilité et la stabilité de la solution.

📖
termes

Décomposition de Tucker (Tucker Decomposition)

Factorisation tensorielle décomposant un tenseur en un tenseur central (core) et des matrices de facteurs pour chaque mode, permettant une compression flexible des données.

📖
termes

Tenseur Central (Core Tensor)

Dans la décomposition de Tucker, tenseur multidimensionnel de plus petite taille qui capture les interactions entre les composantes principales de chaque mode.

📖
termes

Rang Tensoriel

Nombre minimal de tenseurs de rang un nécessaires pour exprimer un tenseur comme une somme, généralisant le concept de rang matriciel aux structures multidimensionnelles.

📖
termes

N-mode Produit Matriciel (n-mode Product)

Opération fondamentale multipliant un tenseur par une matrice le long d'un mode spécifique, essentielle pour les transformations tensorielles et les décompositions.

📖
termes

Décomposition en Valeurs Singulières Tensorielle (Higher-Order SVD)

Extension de la SVD aux tenseurs, calculant les matrices de facteurs orthogonales pour chaque mode et le tenseur central correspondant dans la décomposition de Tucker.

📖
termes

Décomposition en Facteurs Couplés (Coupled Matrix/Tensor Factorization)

Approche factorisant simultanément plusieurs tenseurs et/ou matrices en partageant des facteurs communs pour intégrer des sources de données hétérogènes.

📖
termes

Tensor Train (TT) Decomposition

Décomposition représentant un tenseur d'ordre élevé comme une chaîne de tenseurs d'ordre trois (cores), réduisant drastiquement le nombre de paramètres pour les tenseurs de grande dimension.

📖
termes

Décomposition Hiérarchique de Tucker (Hierarchical Tucker)

Structure de décomposition tensorielle récursive organisant les tenseurs centraux en arbre pour une compression adaptative et efficace des données multidimensionnelles.

📖
termes

Complétion de Tenseur (Tensor Completion)

Problème consistant à estimer les entrées manquantes d'un tenseur en exploitant sa structure de faible rang sous-jacente, généralisant la complétion de matrice.

📖
termes

Décomposition CP Non-négative (Non-negative CP)

Variante de la décomposition CP contraignant tous les facteurs à être non-négatifs, assurant l'interprétabilité additive des composantes pour des applications comme l'analyse de signaux.

📖
termes

Régularisation Tensorielle

Techniques ajoutant des contraintes sur les facteurs tensoriels (comme la parcimonie ou le lissage) pour prévenir le surapprentissage et améliorer la généralisation des modèles.

📖
termes

Unfolding (Matricisation)

Opération réorganisant les éléments d'un tenseur en une matrice en concaténant ses fibres le long d'un mode spécifique, permettant l'application d'algorithmes matriciels.

📖
termes

Fibre Tensorielle

Vecteur obtenu en fixant tous les indices d'un tenseur sauf un, représentant une colonne, une ligne ou un tube selon le mode sélectionné pour l'analyse.

📖
termes

Tranche Tensorielle (Slice)

Sous-tenseur d'ordre inférieur obtenu en fixant un ou plusieurs indices, produisant une matrice ou un vecteur pour l'analyse des structures locales.

📖
termes

Décomposition en Blocs Diagonaux Tensoriels (Block Diagonal Decomposition)

Méthode de factorisation contrainte où le tenseur central est structuré en blocs diagonaux, révélant des clusters ou des groupements dans les données multidimensionnelles.

📖
termes

Orthogonalité Tensorielle

Propriété des facteurs dans certaines décompositions où les matrices de facteurs pour différents modes sont orthogonales, simplifiant l'interprétation et le calcul.

📖
termes

Tensor Ring (TR) Decomposition

Généralisation de la décomposition Tensor Train où les tenseurs centraux sont connectés en anneau, offrant une représentation plus flexible pour certains types de données.

🔍

Aucun résultat trouvé