🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📂
sottocategorie

Auto-Attention

Mécanisme où chaque élément d'une séquence s'attende à tous les autres éléments de la même séquence pour capturer les dépendances internes.

9 termini
📂
sottocategorie

Attention Multi-Tête

Extension de l'attention où plusieurs têtes d'attention parallèles apprennent différentes représentations de l'entrée simultanément.

7 termini
📂
sottocategorie

Attention Positionnelle

Codage positionnel ajouté aux embeddings pour permettre au modèle de comprendre l'ordre séquentiel des éléments.

11 termini
📂
sottocategorie

Attention Croisée

Mécanisme où une séquence s'attende à une autre séquence différente, utilisé dans les modèles encodeur-décodeur.

8 termini
📂
sottocategorie

Attention par Produits Scalaires

Forme mathématique d'attention calculée par le produit scalaire normalisé des vecteurs requête et clé.

9 termini
📂
sottocategorie

Attention Additive

Mécanisme d'attention utilisant un réseau neuronal feed-forward pour calculer les scores d'alignement (Bahdanau attention).

12 termini
📂
sottocategorie

Attention avec Masque

Technique empêchant l'accès à certaines positions de la séquence, utilisée pour éviter les fuites d'information temporelle.

15 termini
📂
sottocategorie

Attention Locale

Variante d'attention restreinte à un voisinage local autour de chaque position pour réduire la complexité computationnelle.

18 termini
📂
sottocategorie

Attention Linéaire

Approximation de l'attention avec complexité linéaire en fonction de la longueur de séquence pour traiter des données massives.

13 termini
📂
sottocategorie

Attention Hiérarchique

Structure d'attention à plusieurs niveaux capturant les dépendances à différentes échelles hiérarchiques.

18 termini
📂
sottocategorie

Attention Sparse

Approche ne calculant l'attention que pour un sous-ensemble sélectionné de positions pour optimiser le calcul et la mémoire.

8 termini
📂
sottocategorie

Attention Multi-Échelle

Mécanisme combinant l'attention à différentes résolutions temporelles ou spatiales pour capturer des motifs variés.

14 termini
🔍

Nessun risultato trovato