🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

Маскированное Внимание

Вариант самовнимания, используемый в декодере для предотвращения фиксации каждой позиции на последующих позициях, обеспечивая авторегрессионную генерацию и предотвращение утечки информации.

📖
термины

Двунаправленный Кодер-Декодер

Архитектура, в которой кодер обрабатывает входную последовательность в обоих направлениях (левый и правый контекст) для создания полного представления, в то время как декодер генерирует выход авторегрессионным способом.

📖
термины

Токенное Вложение

Плотное векторное представление каждого входного токена, изучаемое во время обучения, которое захватывает семантическую и синтаксическую информацию и служит отправной точкой для слоев внимания.

📖
термины

Косинусный Темп Обучения

Стратегия планирования темпа обучения, которая уменьшается по косинусной функции с начальной фазой разогрева, демонстрируя лучшую производительность сходимости для моделей Transformer.

📖
термины

Механизм Ключ-Значение-Запрос

Фундаментальная абстракция механизма внимания, где каждый токен проецируется в три вектора: запрос (что я ищу), ключ (что у меня есть) и значение (что я возвращаю), для вычисления весов внимания.

🔍

Результаты не найдены