🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📂
하위 카테고리

Attention Mechanism

Allows the model to weigh the importance of different parts of the input during processing.

10 용어
📂
하위 카테고리

Self-Attention

Mechanism where each element of the sequence attends to all other elements of the same sequence.

7 용어
📂
하위 카테고리

Multi-Head Attention

Extension of self-attention using multiple attention heads in parallel to capture different types of relationships.

8 용어
📂
하위 카테고리

Positional Encoding

Technique to incorporate position information in embeddings without using an RNN.

19 용어
📂
하위 카테고리

Encoder-Decoder Architecture

Fundamental structure of Transformers with encoder for understanding and decoder for generation.

4 용어
📂
하위 카테고리

Scaled Dot-Product Attention

Basic mathematical form of attention calculation in Transformers with scaling.

5 용어
📂
하위 카테고리

Feed-Forward Networks

Fully-connected networks applied after each attention layer in Transformers.

16 용어
📂
하위 카테고리

Layer Normalization

Normalization technique applied in Transformers to stabilize training.

6 용어
📂
하위 카테고리

Attention Masks

Mechanism to control which tokens can attend to other tokens.

19 용어
📂
하위 카테고리

Vision Transformers (ViT)

Application of Transformer architecture to image processing by dividing images into patches.

14 용어
📂
하위 카테고리

BERT Architecture

Transformer encoder-only pre-trained with masked language modeling objectives.

11 용어
📂
하위 카테고리

GPT Architecture

Transformer decoder-only optimized for auto-regressive text generation.

8 용어
📂
하위 카테고리

Cross-Attention

Attention mechanism between two different sequences in encoder-decoder models.

5 용어
📂
하위 카테고리

Sparse Attention

Variant of attention that reduces complexity by computing only selective pairs.

18 용어
📂
하위 카테고리

Hierarchical Attention

Multi-level architecture applying attention at different granularity scales.

12 용어
📂
하위 카테고리

Attention Visualization

Techniques to interpret and visualize attention weights in Transformers.

17 용어
📂
하위 카테고리

Transformer Optimization

Specific methods for effective training of large Transformer models.

16 용어
📂
하위 카테고리

Multi-Modal Transformers

Extended Transformer architecture to process multiple types of data simultaneously.

18 용어
📂
하위 카테고리

Efficient Transformers

Optimized variants of Transformers to reduce computational complexity.

9 용어
📂
하위 카테고리

Attention Mechanisms Variants

Different approaches and improvements to the attention mechanism beyond dot-product.

9 용어
🔍

결과를 찾을 수 없습니다