🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

扩散Transformer

混合架构,将多头注意力机制整合到迭代扩散过程中,以提高生成数据的整体一致性。

📖
術語

U-ViT

Vision Transformer的变体,其中集成了U-Net连接,以在扩散模型中有效结合多尺度特征。

📖
術語

DiT(扩散Transformer)

在扩散过程中用Transformer块替换传统U-Net卷积的架构,使用时间嵌入来实现条件性。

📖
術語

潜在扩散Transformer

在压缩的潜在空间中应用Transformer机制的模型,降低计算复杂度的同时保持生成质量。

📖
術語

交叉注意力扩散

通过噪声和条件嵌入之间的交叉注意力层,使扩散模型能够与外部条件对齐的机制。

📖
術語

Transformer去噪器

基于Transformer的模块,负责在前向-后向扩散过程的每个去噪步骤中预测噪声。

📖
術語

补丁扩散

在迭代扩散过程之前,将数据分割成由Transformer注意力机制处理的补丁的技术。

📖
術語

自适应层归一化

在扩散Transformer架构中,通过时间嵌入进行条件归一化的方法,以稳定训练。

📖
術語

自注意力噪声预测

使用自注意力机制在扩散过程中建模长距离依赖关系以预测噪声。

📖
術語

Transformer分数匹配

在基于分数的扩散模型中应用Transformer架构来估计对数密度梯度(分数)。

📖
術語

多尺度Transformer扩散

使用不同尺度的Transformer的分层方法,在生成过程中同时捕捉精细细节和整体结构。

📖
術語

条件扩散Transformer

通过注意力机制在Transformer扩散过程中整合条件(文本、图像、类别)的架构。

📖
術語

扩散中的旋转位置编码

应用于扩散Transformer模型的位置编码技术,以更好地捕捉结构化数据中的空间关系。

📖
術語

扩散引导Transformer

扩散过程指导Transformer注意力的模型,以提高结构化生成的一致性和质量。

📖
術語

稀疏Transformer扩散

使用稀疏注意力机制的变体,以降低高分辨率扩散模型的计算复杂度。

📖
術語

Transformer潜在空间扩散

在Transformer自编码器学习的潜在空间中应用扩散过程,以实现高效的结构化数据生成。

📖
術語

扩散感知自注意力

改进的自注意力机制,用于在迭代扩散过程中考虑当前噪声水平

📖
術語

分层Transformer扩散

多层次架构,其中Transformer通过扩散逐步生成越来越精细的表示

🔍

搵唔到結果