🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📂
sottocategorie

Auto-Attention Multi-Tête

Mécanisme fondamental permettant au modèle de se concentrer simultanément sur différentes positions de la séquence avec plusieurs représentations d'attention.

13 termini
📂
sottocategorie

Encodage Positionnel

Technique permettant d'intégrer des informations sur la position des tokens dans les séquences, car les Transformers ne possèdent pas de récurrence intrinsèque.

19 termini
📂
sottocategorie

Architecture Encoder-Decoder

Structure bidirectionnelle où l'encodeur traite la séquence d'entrée et le décodeur génère la séquence de sortie, utilisée dans les tâches de traduction.

5 termini
📂
sottocategorie

BERT et Modèles Masked LM

Modèles pré-entraînés avec objectif de masquage de tokens, révolutionnant le NLP avec des représentations contextuelles bidirectionnelles.

3 termini
📂
sottocategorie

GPT et Modèles Autorégressifs

Architecture basée sur le décodeur-only générant du texte token par token, prédictant le token suivant en fonction des précédents.

11 termini
📂
sottocategorie

Vision Transformers (ViT)

Adaptation des Transformers pour les tâches de vision par ordinateur, traitant les images comme des séquences de patches.

5 termini
📂
sottocategorie

Attention Linéaire et Efficace

Variants d'attention réduisant la complexité quadratique en complexité linéaire pour traiter des séquences plus longues efficacement.

3 termini
📂
sottocategorie

Transformers Multimodaux

Architecture unifiée traitant simultanément plusieurs modalités (texte, image, audio) dans un même espace de représentation.

9 termini
📂
sottocategorie

Fine-Tuning et Prompt Engineering

Techniques d'adaptation des modèles pré-entraînés à des tâches spécifiques avec peu de données d'entraînement.

7 termini
📂
sottocategorie

Interprétabilité des Mécanismes d'Attention

Étude et visualisation des poids d'attention pour comprendre les décisions du modèle et identifier les dépendances apprises.

14 termini
📂
sottocategorie

Transformers pour Audio

Application des architectures Transformer aux tâches de traitement audio, reconnaissance vocale et génération musicale.

18 termini
📂
sottocategorie

Sparse Attention

Variantes d'attention ne considérant qu'un sous-ensemble des positions pour réduire la complexité computationnelle et mémorielle.

0 termini
🔍

Nessun risultato trovato