🏠 Trang chủ
Benchmark
📊 Tất cả benchmark 🦖 Khủng long v1 🦖 Khủng long v2 ✅ Ứng dụng To-Do List 🎨 Trang tự do sáng tạo 🎯 FSACB - Trình diễn cuối cùng 🌍 Benchmark dịch thuật
Mô hình
🏆 Top 10 mô hình 🆓 Mô hình miễn phí 📋 Tất cả mô hình ⚙️ Kilo Code
Tài nguyên
💬 Thư viện prompt 📖 Thuật ngữ AI 🔗 Liên kết hữu ích

Thuật ngữ AI

Từ điển đầy đủ về Trí tuệ nhân tạo

162
danh mục
2.032
danh mục con
23.060
thuật ngữ
📂
danh mục con

Attention Mechanism

Mathematical foundation allowing models to weight the relative importance of elements in a data sequence.

5 thuật ngữ
📂
danh mục con

Self-Attention

Mechanism where each element of a sequence computes its attention relative to all other elements in the same sequence.

0 thuật ngữ
📂
danh mục con

Multi-Head Attention

Attention extension using multiple attention heads in parallel to capture different types of relationships.

3 thuật ngữ
📂
danh mục con

Positional Encoding

Technique for incorporating the sequential position of elements into embeddings without using an RNN.

12 thuật ngữ
📂
danh mục con

Encoder-Decoder Architecture

Fundamental structure of Transformers separating input processing (encoder) and output generation (decoder).

2 thuật ngữ
📂
danh mục con

Attention Scaling

Square root of dimensionality normalization to stabilize training and prevent exploding gradients.

14 thuật ngữ
📂
danh mục con

Cross-Attention

Attention mechanism between two different sequences, used in translation and multimodal tasks.

8 thuật ngữ
📂
danh mục con

Sparse Attention

Variant of attention computed only on a subset of positions to reduce computational complexity.

3 thuật ngữ
📂
danh mục con

Attention Masks

Control mechanisms allowing to mask certain positions during attention computation to prevent information leakage.

9 thuật ngữ
📂
danh mục con

Vision Transformers

Adaptation of the Transformer architecture to computer vision tasks by treating images as sequences of patches.

9 thuật ngữ
📂
danh mục con

Efficient Attention

Set of optimizations aimed at reducing the quadratic complexity of standard attention for longer sequences.

2 thuật ngữ
📂
danh mục con

Hierarchical Attention

Multi-level attention structure capturing relationships at different hierarchical scales in the data.

12 thuật ngữ
🔍

Không tìm thấy kết quả