🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

ALiBi (Attention with Linear Biases)

Méthode alternative à l'encodage positionnel traditionnel qui ajoute des biais linéaires aux scores d'attention en fonction de la distance entre les positions, permettant une meilleure extrapolation à des séquences plus longues.

📖
термины

Positional Bias

Terme additif ou multiplicatif appliqué aux scores d'attention pour tenir compte des relations de position entre les tokens dans les mécanismes d'attention.

📖
термины

Sequence Position Embedding

Représentation vectorielle qui encode explicitement la position de chaque élément dans une séquence, permettant au modèle de comprendre l'ordre séquentiel des données.

📖
термины

Temporal Encoding

Variante d'encodage positionnel spécifiquement conçue pour capturer les dépendances temporelles dans les données séquentielles temporelles, intégrant des notions de temps et de durée.

📖
термины

Continuous Positional Encoding

Méthode d'encodage qui permet des représentations positionnelles continues, pouvant interpoler entre des positions discrètes et gérer des positions fractionnaires.

📖
термины

Fixed Positional Encoding

Type d'encodage positionnel où les embeddings sont prédéterminés et ne sont pas modifiés pendant l'entraînement, basé sur des formules mathématiques fixes comme les fonctions sinusoïdales.

📖
термины

Adaptive Positional Encoding

Approche d'encodage positionnel qui s'adapte dynamiquement à la longueur de la séquence d'entrée, permettant une meilleure généralisation à des longueurs de séquence variables.

📖
термины

Positional Interpolation

Technique pour adapter les modèles pré-entraînés à des séquences plus longues en interpolant linéairement les embeddings positionnels existants plutôt que d'en extrapoler de nouveaux.

📖
термины

NTK-Aware Positional Interpolation

Variante améliorée de l'interpolation positionnelle qui maintient les propriétés de la transformée de Fourier non-uniforme (NTK) pour une meilleure préservation des informations à haute fréquence.

📖
термины

xPOS (Scaling Positional Encoding)

Méthode d'encodage positionnel qui utilise une mise à l'échelle exponentielle pour mieux capturer les dépendances à longue distance tout en préservant les informations de position locales.

📖
термины

T5's Relative Position Bias

Implémentation spécifique de biais de position relative utilisée dans le modèle T5, où les biais sont appris pour différentes distances relatives entre les tokens dans les scores d'attention.

📖
термины

Transformer-XL Positional Encoding

Mécanisme d'encodage positionnel récurrent qui permet de modéliser des dépendances à longue distance en réutilisant les états cachés des segments précédents avec un encodage positionnel relatif.

🔍

Результаты не найдены