🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📂
하위 카테고리

Self-Attention

Fundamental mechanism allowing transformers to dynamically compute the relative importance of each element in a sequence compared to others.

2 용어
📂
하위 카테고리

Multi-Head Attention

Extension of self-attention where multiple attention heads operate in parallel to capture different types of relationships in the data.

4 용어
📂
하위 카테고리

Positional Encoding

Technique that incorporates sequential position information into embeddings to compensate for the absence of recurrence in transformers.

6 용어
📂
하위 카테고리

Encoder-Decoder Architecture

Fundamental structure of original transformers combining an encoder to process input and a decoder to generate output.

8 용어
📂
하위 카테고리

BERT (Bidirectional Encoder Representations)

Family of pre-trained models based on the encoder-only architecture with bidirectional context understanding.

10 용어
📂
하위 카테고리

GPT (Generative Pre-trained Transformer)

Decoder-only architecture optimized for autoregressive text generation, forming the basis of large language models.

5 용어
📂
하위 카테고리

Vision Transformers (ViT)

Application of transformer architectures to image processing by dividing images into patches and treating them as sequences.

11 용어
📂
하위 카테고리

Sparse Attention Mechanisms

Variants of attention reducing computational complexity by limiting connections between sequence elements.

2 용어
📂
하위 카테고리

Cross-Attention

Attention mechanism where queries come from one sequence while keys and values come from a different sequence.

2 용어
📂
하위 카테고리

Transformer Scaling Laws

Empirical principles describing how transformer performance evolves with model size, data, and computation.

18 용어
📂
하위 카테고리

Attention Head Analysis

Study of the specialized roles of different attention heads in transformers to understand their internal functioning.

19 용어
📂
하위 카테고리

Hierarchical Attention

Hierarchical attention architecture organized across multiple levels to process complex structured data.

9 용어
🔍

결과를 찾을 수 없습니다