人工智能 (AI) 是计算机科学的一个分支, 它企图了解智能的实质, 并生产出一种新的能以人类智能相似的方式做出反应的智能机器, 该领域的研究包括机器人, 语言识别, 图像识别, 自然语言处理和专家系统等. 人工智能从诞生以来, 理论和技术日益成熟, 应用领域也不断扩大, 可以设想未来人工智能带来的科技产品, 将会是人类智慧的 "容器". 人工智能可以对人的意识, 思维的信息过程的模拟. 人工智能不是人的智能, 但能像人那样思考, 也可能超过人的智能.
但随着 AI 从云到边缘的发展, 使得这一观点正在迅速改变, AI 计算引擎使 MCU 能够突破嵌入式应用可能的极限, 嵌入式设计已经能够提高网络攻击的实时响应能力和设备安全性.
支持 AI 的 MCU https://www.wridy.com/list-358-1.html
云计算推动了对具有 AI 功能的 MCU 的需求; 它减少了数据传输所需的带宽, 并节省了云服务器的处理能力, 如下图.
配备 AI 算法的 MCU 正在应用包含对象识别, 启用语音服务和自然语言处理等功能的应用程序. 它们还有助于提高物联网(IoT), 可穿戴设备和医疗应用中电池供电设备的准确性和数据隐私性.
那么, MCU 如何在边缘和节点设计中实现 AI 功能? 下面简要介绍了三种基本方法, 这些方法使 MCU 能够在 IoT 网络边缘执行 AI 加速.
三个 MCU + AI 场合
第一种方法 (可能是最常见的方法) 涉及各种神经网络 (NN) 框架 (例如 Caffe 2,TensorFlow Lite 和 ARM NN) 的模型转换, 用于在 MCU 上部署云训练的模型和推理引擎. 有一些软件工具可以从云中获取经过预训练的神经网络, 并通过将其转换为 C 代码来针对 MCU 进行优化.
在 MCU 上运行的优化代码可以在语音, 视觉和异常检测应用程序中执行 AI 功能. 工程师可以将这些工具集下载到 MCU 配置中, 并运行优化神经网络的推论. 这些 AI 工具集还提供了基于神经网络的 AI 应用程序的代码示例.
AI 执行模型转换工具可以在低成本和低功耗 MCU 上运行优化神经网络的推论, 如下图所示.
第二种方法是绕过了对从云借用的预训练神经网络模型的需求, 设计人员可以将 AI 库集成到微控制器中, 并将本地 AI 培训和分析功能纳入其代码中.
随后开发人员可以基于从边缘的传感器, 麦克风和其他嵌入式设备获取的信号来创建数据模型, 并运行诸如预测性维护和模式识别之类的应用程序.
第三种方法是 AI 专用协处理器的可用性使 MCU 供应商能够加快机器学习功能的部署. 诸如 ARM Cortex-M33 之类的协处理器利用了诸如 CMSIS-DSP 之类的流行 API 来简化代码的可移植性, 从而使 MCU 与协处理器紧密耦合, 可加快 AI 功能, 如协处理相关和矩阵运算.
上述软件和硬件平台演示了如何通过根据嵌入式设计要求开发的推理引擎在低成本 MCU 中实现 AI 功能. 这很关键, 因为支持 AI 的 MCU 很有可能在 IoT, 工业, 智能建筑和医疗应用中改变嵌入式设备的设计.
来源: http://www.bubuko.com/infodetail-3711210.html