🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📂
子類別

注意力机制

允许模型在处理过程中权衡输入不同部分的重要性。

10 術語
📂
子類別

自注意力

一种让序列中每个元素都关注到同一序列中所有其他元素的机制。

7 術語
📂
子類別

多头注意力

自注意力的扩展,使用多个注意力头并行运行以捕获不同类型的关系。

8 術語
📂
子類別

位置编码

将位置信息整合到嵌入中而不使用RNN的技术。

19 術語
📂
子類別

编码器-解码器架构

Transformer 的基本结构,包含用于理解的编码器和用于生成的解码器。

4 術語
📂
子類別

缩放点积注意力

Transformer中注意力计算的基本数学形式,包含缩放。

5 術語
📂
子類別

前馈网络

在 Transformer 中,每个注意力层之后应用的全连接网络。

16 術語
📂
子類別

层归一化

在Transformer中应用的归一化技术,用于稳定训练过程。

6 術語
📂
子類別

注意力掩码

控制哪些token可以关注其他token的机制。

19 術語
📂
子類別

视觉变换器 (ViT)

将 Transformer 架构应用于图像处理,方法是将图像分割成小块。

14 術語
📂
子類別

BERT Architecture

Transformer encoder-only pré-entraîné avec objectives de masked language modeling.

11 術語
📂
子類別

GPT 架构

为自回归文本生成而优化的仅解码器 Transformer。

8 術語
📂
子類別

交叉注意力

在编码器-解码器中两个不同序列之间的注意力机制。

5 術語
📂
子類別

稀疏注意力

注意力的一种变体,通过只计算选择性配对来降低复杂度。

18 術語
📂
子類別

分层注意力

应用于不同粒度级别的注意力多层架构。

12 術語
📂
子類別

注意力可视化

解释和可视化Transformer注意力权重的技术。

17 術語
📂
子類別

Transformer Optimization

Méthodes spécifiques pour l'entraînement efficace des grands modèles Transformers.

16 術語
📂
子類別

Multi-Modal Transformers

Architecture Transformer étendue pour traiter simultanément plusieurs types de données.

18 術語
📂
子類別

Efficient Transformers

Variantes optimisées des Transformers pour réduire la complexité computationnelle.

9 術語
📂
子類別

Attention Mechanisms Variants

Différentes approches et améliorations du mécanisme d'attention au-delà du dot-product.

9 術語
🔍

搵唔到結果