🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📂
подкатегории

Самовнимание

Фундаментальный механизм, позволяющий трансформерам динамически вычислять относительную важность каждого элемента в последовательности по отношению к другим.

2 термины
📂
подкатегории

Многоголовое внимание

Расширение механизма самовнимания, в котором несколько голов внимания работают параллельно для захвата различных типов отношений в данных.

4 термины
📂
подкатегории

Позиционное кодирование

Техника, включающая информацию о последовательной позиции в эмбеддинги для компенсации отсутствия рекуррентности в трансформерах.

6 термины
📂
подкатегории

Архитектура кодировщик-декодировщик

Фундаментальная структура оригинальных трансформеров, объединяющая кодировщик для обработки входных данных и декодировщик для генерации выходных данных.

8 термины
📂
подкатегории

BERT (Bidirectional Encoder Representations)

Семейство предварительно обученных моделей на основе архитектуры кодировщика только с двунаправленным пониманием контекста.

10 термины
📂
подкатегории

GPT (Generative Pre-trained Transformer)

Архитектура только с декодером, оптимизированная для авторегрессивной генерации текста, формирующая основу больших языковых моделей.

5 термины
📂
подкатегории

Трансформеры для обработки изображений (ViT)

Применение архитектур трансформеров для обработки изображений путем разделения изображений на патчи и их обработки как последовательностей.

11 термины
📂
подкатегории

Механизмы разреженного внимания

Варианты внимания, снижающие вычислительную сложность за счет ограничения связей между элементами последовательности.

2 термины
📂
подкатегории

Перекрестное внимание

Механизм внимания, в котором запросы поступают из одной последовательности, а ключи и значения - из другой последовательности.

2 термины
📂
подкатегории

Законы масштабирования трансформеров

Эмпирические принципы, описывающие, как производительность трансформеров меняется в зависимости от размера модели, данных и вычислительных ресурсов.

18 термины
📂
подкатегории

Анализ голов внимания

Изучение специализированных ролей различных голов внимания в трансформерах для понимания их внутреннего функционирования.

19 термины
📂
подкатегории

Иерархическое внимание

Архитектура внимания, организованная на нескольких иерархических уровнях для обработки сложных структурированных данных.

9 термины
🔍

Результаты не найдены