🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

Энкодер-Декодер

Двунаправленная архитектура, где энкодер обрабатывает входную последовательность, а декодер генерирует выходную последовательность. Эта структура позволяет выполнять задачи преобразования, такие как машинный перевод или суммаризация текста.

📖
термины

Маскированное Внимание

Механизм внимания, где определенные позиции маскируются, чтобы предотвратить доступ модели к будущей информации. Необходим в декодерах для обеспечения авторегрессионной генерации во время вывода.

📖
термины

Послойная Прямая Связь

Нейронная сеть, применяемая одинаково и независимо к каждой позиции последовательности. Преобразует представления после механизма внимания, внося нелинейность.

📖
термины

Вес Внимания

Нормализованные с помощью softmax оценки, которые определяют относительную важность каждого элемента при вычислении внимания. Эти веса используются для взвешенной линейной комбинации значений.

📖
термины

Слой Dropout

Техника регуляризации, которая случайным образом отключает нейроны во время обучения для предотвращения переобучения. Применяется после слоев внимания и прямой связи в Transformers.

🔍

Результаты не найдены