🏠 Trang chủ
Benchmark
📊 Tất cả benchmark 🦖 Khủng long v1 🦖 Khủng long v2 ✅ Ứng dụng To-Do List 🎨 Trang tự do sáng tạo 🎯 FSACB - Trình diễn cuối cùng 🌍 Benchmark dịch thuật
Mô hình
🏆 Top 10 mô hình 🆓 Mô hình miễn phí 📋 Tất cả mô hình ⚙️ Kilo Code
Tài nguyên
💬 Thư viện prompt 📖 Thuật ngữ AI 🔗 Liên kết hữu ích

Thuật ngữ AI

Từ điển đầy đủ về Trí tuệ nhân tạo

162
danh mục
2.032
danh mục con
23.060
thuật ngữ
📂
danh mục con

Attention Mechanism

Allows the model to weigh the importance of different parts of the input during processing.

10 thuật ngữ
📂
danh mục con

Self-Attention

Mechanism where each element of the sequence attends to all other elements of the same sequence.

7 thuật ngữ
📂
danh mục con

Multi-Head Attention

Extension of self-attention using multiple attention heads in parallel to capture different types of relationships.

8 thuật ngữ
📂
danh mục con

Positional Encoding

Technique to incorporate position information in embeddings without using an RNN.

19 thuật ngữ
📂
danh mục con

Encoder-Decoder Architecture

Fundamental structure of Transformers with encoder for understanding and decoder for generation.

4 thuật ngữ
📂
danh mục con

Scaled Dot-Product Attention

Basic mathematical form of attention calculation in Transformers with scaling.

5 thuật ngữ
📂
danh mục con

Feed-Forward Networks

Fully-connected networks applied after each attention layer in Transformers.

16 thuật ngữ
📂
danh mục con

Layer Normalization

Normalization technique applied in Transformers to stabilize training.

6 thuật ngữ
📂
danh mục con

Attention Masks

Mechanism to control which tokens can attend to other tokens.

19 thuật ngữ
📂
danh mục con

Vision Transformers (ViT)

Application of Transformer architecture to image processing by dividing images into patches.

14 thuật ngữ
📂
danh mục con

BERT Architecture

Transformer encoder-only pre-trained with masked language modeling objectives.

11 thuật ngữ
📂
danh mục con

GPT Architecture

Transformer decoder-only optimized for auto-regressive text generation.

8 thuật ngữ
📂
danh mục con

Cross-Attention

Attention mechanism between two different sequences in encoder-decoder models.

5 thuật ngữ
📂
danh mục con

Sparse Attention

Variant of attention that reduces complexity by computing only selective pairs.

18 thuật ngữ
📂
danh mục con

Hierarchical Attention

Multi-level architecture applying attention at different granularity scales.

12 thuật ngữ
📂
danh mục con

Attention Visualization

Techniques to interpret and visualize attention weights in Transformers.

17 thuật ngữ
📂
danh mục con

Transformer Optimization

Specific methods for effective training of large Transformer models.

16 thuật ngữ
📂
danh mục con

Multi-Modal Transformers

Extended Transformer architecture to process multiple types of data simultaneously.

18 thuật ngữ
📂
danh mục con

Efficient Transformers

Optimized variants of Transformers to reduce computational complexity.

9 thuật ngữ
📂
danh mục con

Attention Mechanisms Variants

Different approaches and improvements to the attention mechanism beyond dot-product.

9 thuật ngữ
🔍

Không tìm thấy kết quả