Глоссарий ИИ
Полный словарь искусственного интеллекта
Временной Трансформер
Нейронная архитектура, адаптированная из оригинального трансформера для обработки временных рядов, использующая механизмы внимания для захвата долгосрочных временных зависимостей. Эта архитектура модифицирует компоненты стандартного трансформера для лучшего управления специфическими характеристиками временных последовательных данных.
Патч-Трансформер для Временных Рядов (PatchTST)
Архитектура трансформера, которая разделяет временные ряды на патчи для повышения вычислительной эффективности и захвата локальных и глобальных паттернов. Этот подход позволяет снизить временную сложность, сохраняя при этом важные временные отношения в данных.
Временное Позиционное Кодирование
Механизм кодирования, который внедряет временную информацию в временные ряды, чтобы модель понимала хронологический порядок наблюдений. В отличие от стандартного позиционного кодирования для текста, он должен учитывать переменные временные интервалы и периодичности.
Каузальное Маскирование Внимания
Техника маскирования, которая предотвращает использование моделью будущей информации при прогнозировании, обеспечивая, что внимание направляется только на прошлые временные шаги. Необходимо для задач прогнозирования, где предсказания должны зависеть только от исторических данных.
Архитектура Informer
Оптимизированная архитектура трансформера для длинных временных рядов с эффективным вероятностным механизмом внимания и дистиллятором зависимостей. Разработана для снижения квадратичной сложности стандартного внимания при сохранении способности захватывать долгосрочные зависимости.
Трансформер Временного Слияния (TFT)
Гибридная архитектура, которая комбинирует механизмы внимания с сетями резонанса для прогнозирования многомерных временных рядов. Интегрирует статические переменные и элементы интерпретируемости для понимания отношений между различными временными рядами.
Autoformer
Архитектура трансформера с механизмом глубокой автокорреляции, который заменяет стандартное внимание для лучшего захвата временных зависимостей. Использует разложение ряда-время для разделения трендов и сезонности, улучшая точность прогнозов.
Перекрестное Внимание для Многомерных Рядов
Механизм внимания, который моделирует взаимодействия между различными временными переменными в многомерных рядах. Позволяет модели обнаруживать и использовать межрядные отношения для улучшения точности предсказаний.
Временное окно внимания
Техника, ограничивающая область внимания определенным временным окном для снижения вычислительной сложности и концентрации на релевантных зависимостях. Особенно полезна для очень длинных временных рядов, где дальние зависимости менее важны.
Патч-эмбеддинг временных рядов
Процесс преобразования сегментов временных рядов в векторы эмбеддинга, которые служат входными данными для трансформерных слоев. Позволяет снизить размерность данных при сохранении важных временных паттернов.
Трансформер с сезонной декомпозицией
Архитектура, интегрирующая явную сезонную декомпозицию в трансформерный пайплайн для лучшего моделирования циклических паттернов. Разделяет ряды на трендовую, сезонную и остаточную компоненты перед применением механизмов внимания.
Эффективное внимание для временных рядов
Оптимизированные варианты внимания для временных рядов, снижающие вычислительную сложность с O(n²) до O(n) или O(n log n). Включают подходы типа Performer, Linformer или Reformer, адаптированные специально для временных данных.
Трансформер с выбором переменных
Механизм, обучающийся динамически выбирать наиболее релевантные переменные на каждом временном шаге для прогнозирования. Использует веса внимания для моделирования переменной важности признаков во времени.
Временное самовнимание
Механизм, где каждая временная точка вычисляет свою важность относительно всех других точек того же ряда. Позволяет захватывать сложные и дальнодействующие зависимости без ограничений традиционных RNN-моделей.
Внимание с затворами для временных рядов
Механизм внимания, использующий затворы для селективного контроля потока временной информации в трансформерных архитектурах. Улучшает способность модели концентрироваться на релевантных периодах, игнорируя временной шум.
Иерархическое временное внимание
Архитектура внимания, работающая одновременно на нескольких временных масштабах для захвата краткосрочных, среднесрочных и долгосрочных паттернов. Комбинирует информацию разных временных разрешений для полного понимания последовательных динамик.
Адаптивное частотное внимание
Механизм, который адаптирует внимание в зависимости от доминирующих частот в анализируемых временных рядах. Сочетает временные и частотные подходы для лучшего моделирования периодических и циклических паттернов.