🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📂
подкатегории

Механизм внимания

Математическая основа, позволяющая моделям взвешивать относительную важность элементов в последовательности данных.

5 термины
📂
подкатегории

Самовнимание

Механизм, в котором каждый элемент последовательности вычисляет свое внимание относительно всех остальных элементов той же последовательности.

0 термины
📂
подкатегории

Многоголовое внимание

Расширение механизма внимания, использующее несколько голов внимания параллельно для выявления различных типов отношений.

3 термины
📂
подкатегории

Позиционное кодирование

Техника встраивания последовательной позиции элементов в эмбеддинги без использования РНС

12 термины
📂
подкатегории

Architecture Encoder-Decoder

Structure fondamentale des Transformers séparant le traitement d'entrée (encodeur) et la génération de sortie (décodeur).

2 термины
📂
подкатегории

Масштабирование внимания

Нормализация квадратным корнем размерности для стабилизации обучения и предотвращения взрыва градиентов.

14 термины
📂
подкатегории

Перекрестное внимание

Механизм внимания между двумя различными последовательностями, используемый в задачах перевода и мультимодальных задачах.

8 термины
📂
подкатегории

Разреженное внимание

Вариант внимания, вычисляемый только на подмножестве позиций для снижения вычислительной сложности.

3 термины
📂
подкатегории

Маски внимания

Механизмы управления, позволяющие маскировать определенные позиции при вычислении внимания для предотвращения утечки информации.

9 термины
📂
подкатегории

Визуальные трансформеры

Адаптация архитектуры трансформера к задачам компьютерного зрения путем обработки изображений как последовательностей патчей.

9 термины
📂
подкатегории

Эффективное внимание

Набор оптимизаций, направленных на снижение квадратичной сложности стандартного внимания для более длинных последовательностей.

2 термины
📂
подкатегории

Иерархическое внимание

Многоуровневая структура внимания, захватывающая отношения на различных иерархических уровнях в данных.

12 термины
🔍

Результаты не найдены