🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📂
подкатегории

Многоголовая Само-Внимание

Фундаментальный механизм, позволяющий модели одновременно фокусироваться на разных позициях последовательности с несколькими представлениями внимания.

13 термины
📂
подкатегории

Позиционное кодирование

Техника, позволяющая интегрировать информацию о позиции токенов в последовательности, поскольку Трансформеры не обладают внутренней рекурсией.

19 термины
📂
подкатегории

Архитектура Encoder-Decoder

Бидирекционная структура, где энкодер обрабатывает входную последовательность, а декодер генерирует выходную последовательность, используется в задачах перевода.

5 термины
📂
подкатегории

BERT и модели Masked LM

Предварительно обученные модели с целью маскирования токенов, революционизирующие NLP с двунаправленными контекстуальными представлениями.

3 термины
📂
подкатегории

GPT и авторегрессионные модели

Архитектура, основанная только на декодере, генерирует текст токен за токеном, предсказывая следующий токен на основе предыдущих.

11 термины
📂
подкатегории

Vision Transformers (ViT)

Адаптация Трансформеров для задач компьютерного зрения, обрабатывающая изображения как последовательности патчей.

5 термины
📂
подкатегории

Линейное и эффективное внимание

Варианты внимания, снижающие квадратичную сложность до линейной для эффективной обработки более длинных последовательностей.

3 термины
📂
подкатегории

Мультимодальные Трансформеры

Унифицированная архитектура, одновременно обрабатывающая несколько модальностей (текст, изображение, аудио) в едином пространстве представлений.

9 термины
📂
подкатегории

Тонкая настройка и инженерия промптов

Техники адаптации предварительно обученных моделей к конкретным задачам с малым количеством обучающих данных.

7 термины
📂
подкатегории

Интерпретируемость механизмов внимания

Изучение и визуализация весов внимания для понимания решений модели и выявления изученных зависимостей.

14 термины
📂
подкатегории

Трансформеры для аудио

Применение архитектур Transformer к задачам обработки аудио, распознавания речи и генерации музыки.

18 термины
📂
подкатегории

Разреженное внимание

Варианты внимания, учитывающие только подмножество позиций для снижения вычислительной сложности и использования памяти.

0 термины
🔍

Результаты не найдены