🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📂
个子类别

注意力机制

允许模型在处理过程中权衡输入不同部分的重要性。

10 个术语
📂
个子类别

自注意力

一种让序列中每个元素都关注到同一序列中所有其他元素的机制。

7 个术语
📂
个子类别

多头注意力

自注意力的扩展,使用多个注意力头并行运行以捕获不同类型的关系。

8 个术语
📂
个子类别

位置编码

将位置信息整合到嵌入中而不使用RNN的技术。

19 个术语
📂
个子类别

编码器-解码器架构

Transformer 的基本结构,包含用于理解的编码器和用于生成的解码器。

4 个术语
📂
个子类别

缩放点积注意力

Transformer中注意力计算的基本数学形式,包含缩放。

5 个术语
📂
个子类别

前馈网络

在 Transformer 中,每个注意力层之后应用的全连接网络。

16 个术语
📂
个子类别

层归一化

在Transformer中应用的归一化技术,用于稳定训练过程。

6 个术语
📂
个子类别

注意力掩码

控制哪些token可以关注其他token的机制。

19 个术语
📂
个子类别

视觉变换器 (ViT)

将 Transformer 架构应用于图像处理,方法是将图像分割成小块。

14 个术语
📂
个子类别

BERT Architecture

Transformer encoder-only pré-entraîné avec objectives de masked language modeling.

11 个术语
📂
个子类别

GPT 架构

为自回归文本生成而优化的仅解码器 Transformer。

8 个术语
📂
个子类别

交叉注意力

在编码器-解码器中两个不同序列之间的注意力机制。

5 个术语
📂
个子类别

稀疏注意力

注意力的一种变体,通过只计算选择性配对来降低复杂度。

18 个术语
📂
个子类别

分层注意力

应用于不同粒度级别的注意力多层架构。

12 个术语
📂
个子类别

注意力可视化

解释和可视化Transformer注意力权重的技术。

17 个术语
📂
个子类别

Transformer Optimization

Méthodes spécifiques pour l'entraînement efficace des grands modèles Transformers.

16 个术语
📂
个子类别

Multi-Modal Transformers

Architecture Transformer étendue pour traiter simultanément plusieurs types de données.

18 个术语
📂
个子类别

Efficient Transformers

Variantes optimisées des Transformers pour réduire la complexité computationnelle.

9 个术语
📂
个子类别

Attention Mechanisms Variants

Différentes approches et améliorations du mécanisme d'attention au-delà du dot-product.

9 个术语
🔍

未找到结果