AI 詞彙表
人工智能完整詞典
嵌入式自动机器学习
自动机器学习的一个子领域,专门于自动生成针对嵌入式设备特定约束(包括有限内存、较低计算能力和能耗限制)进行优化的模型。
模型量化
一种优化技术,通过降低神经网络权重和激活值的数值精度(通常从32位降至8位或更低)来减小模型尺寸并加速在受限硬件上的推理。
神经剪枝
在神经网络中选择性移除冗余权重或神经元的过程,旨在降低计算复杂度和内存占用,同时保持模型的精度。
知识蒸馏
一种迁移学习方法,其中一个大型的教师模型训练一个更紧凑的学生模型,从而将大模型的性能保留在适用于边缘设备的架构中。
推理优化
一系列旨在减少执行训练模型所需时间和资源的技术,包括操作融合、高效内存分配和硬件并行化利用。
面向边缘的神经架构搜索
一种受约束的神经架构搜索,它通过专门考虑边缘设备的硬件限制(如目标延迟和能耗)来自动优化网络结构。
模型编译器
一种将AI计算图转换为适用于特定目标架构的优化机器代码的工具,集成了如量化和操作融合等优化技术。
TensorRT
NVIDIA的一个用于在生产环境中部署AI模型的优化和运行时SDK,它使用量化、层融合和内核优化等技术来最大化在NVIDIA GPU上的性能。
TinyML
机器学习领域,专注于在微控制器和超低功耗设备上运行AI模型,通常内存小于1MB,功耗低于1mW。
Edge TPU
由谷歌开发的ASIC硬件加速器,专为边缘端AI推理设计,优化用于高效运行量化的TensorFlow Lite模型。
Optimisation de la mémoire
减少模型内存占用的技术,包括权重共享、压缩和动态分配,以适应嵌入式设备的限制。
Latence d'inférence
从数据输入模型到获得预测结果所经过的时间,在实时边缘应用中是关键参数,目标值通常低于10ms。
Modèle allégé
为最小化参数和计算操作而设计的神经网络架构,如MobileNet或EfficientNet,针对移动和边缘部署进行了优化。
Déploiement distribué
将AI工作负载分配到多个边缘设备的策略,以优化整体资源并提高分布式AI应用的可扩展性。
Optimisation énergétique
最小化边缘设备上AI模型功耗的过程,对于电池供电应用和大规模部署至关重要。
Edge AI
直接在边缘设备上处理人工智能的范式,消除了关键推理任务与云通信的需求。
AI微控制器
一种超低功耗片上系统,集成了专用于AI推理的硬件加速器,能够以微瓦级的功耗执行TinyML模型。
硬件感知优化
一种AutoML方法,在模型自动设计过程中融入目标硬件的特定特性,以确保最佳的兼容性和性能。
算子融合
一种编译技术,将多个相邻的层或操作合并为一个内核操作,从而减少内存开销并提升边缘设备的计算效率。