🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

语言模型

一种统计或神经的系统,用于计算词汇序列在某种语言中出现的概率。这些模型从大量文本语料库中学习上下文和语法依赖关系,以生成或评估自然语言。

📖
个术语

Transformer架构

一种基于注意力机制的神经网络架构,并行处理序列而不依赖时间顺序。Transformer因能够捕捉长距离依赖关系而彻底改变了语言模型。

📖
个术语

GPT

基于仅从左到右解码的Transformer架构的生成式语言模型家族。GPT模型专门用于生成连贯文本和序列补全。

📖
个术语

N-grams

基于马尔可夫假设的统计语言模型,即一个词的概率仅依赖于前面的n-1个词。N-grams是神经网络时代之前语言模型的传统方法。

📖
个术语

RNN

一种循环神经网络,通过维护随每个标记演变的隐藏状态来处理序列。RNN是最早应用于语言模型以捕捉时间依赖关系的神经网络架构之一。

📖
个术语

LSTM

RNN的高级变体,使用遗忘门和记忆门来处理长距离依赖关系。LSTM克服了传统RNN在语言建模应用中的梯度消失问题。

📖
个术语

因果语言模型

仅基于序列中前面的词来预测下一个词的训练模型。因果模型特别适合文本生成和补全任务。

📖
个术语

掩码语言模型

使用完整的双向上下文来预测序列中被掩码词的训练模型。这种方法为分析和分类任务提供了更好的上下文理解。

🔍

未找到结果