🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

Линейная проекция

Линейное преобразование, применяемое к входным встраиваниям для генерации пространств Query, Key и Value в каждой головке многоголового внимания.

📖
термины

Маскирование внимания

Техника, применяющая бесконечно отрицательные значения к определенным позициям в матрице внимания для предотвращения нежелательных взаимодействий между элементами последовательности.

📖
термины

Конкатенация многоголового внимания

Операция, объединяющая выходы всех головок внимания путем конкатенации их представлений перед финальной линейной проекцией для создания выхода.

📖
термины

Контекстуальное встраивание

Обогащенное векторное представление, генерируемое механизмом внимания, которое включает контекстную информацию всей последовательности для каждого элемента.

📖
термины

Размерность головки внимания

Уменьшенная размерность каждого подпространства внимания в многоголовом внимании, обычно вычисляемая как размерность_модели / количество_головок.

📖
термины

Параллельное вычисление внимания

Процесс, в котором несколько головок внимания вычисляются одновременно в параллельном режиме, позволяя эффективно захватывать различные аспекты последовательных отношений.

📖
термины

Остаточное соединение внимания

Остаточное соединение, добавляющее исходный вход к выходу слоя внимания, облегчая обучение глубоких сетей путем сохранения потока информации.

📖
термины

Распределение внимания

Распределение вероятностей по элементам последовательности, генерируемое softmax, указывающее, куда модель 'смотрит' при обработке конкретного элемента.

🔍

Результаты не найдены