人工智能有一个瓶颈问题. 它基于深度神经网络, 可能需要数亿到数十亿次计算 -- 这是一项处理和能源密集型任务. 然后是将数据从内存中移入或移出以执行这些和其他分析计算的成本和延迟. 麻省理工学院 (MIT) 副教授 Vivienne Sze 因其在开发视频压缩标准方面的作用而闻名, 该标准至今仍在使用. 现在, 她专注于设计更高效的深度神经网络来处理视频, 以及更高效的硬件来在智能手机, 嵌入式设备, 微型机器人, 智能家居和医疗设备上运行人工智能应用程序.
在麻省理工学院最近的一次采访中, 她解释了为什么我们现在需要低功耗人工智能."人工智能应用正在向智能手机, 微型机器人, 互联网连接设备和其他功率和处理能力有限的设备转移. 挑战在于人工智能具有很高的计算要求. 将分析应用于自驾汽车的传感器和摄像头数据可能会消耗约 2500 瓦, 但 sm 的计算预算很低 artphone 大约只有一瓦."
Sze 说, 在智能手机等小型设备上本地化人工智能 "意味着数据处理不再需要在云端, 仓库服务器机架上进行"."从云上卸载计算使我们能够扩大人工智能的影响范围. 它通过减少与远程服务器通信造成的延迟来加快响应时间. 这对于交互式应用程序 (如自主导航和增强现实) 至关重要, 因为它们需要对不断变化的条件做出即时响应. 在开发设备上处理数据 ice 还可以保护医疗和其他敏感记录. 数据可以在收集的地方进行处理."
从硬件角度来看, Sze 寻求 "在本地重用数据, 而不是将其发送到芯片外. 将重用数据存储在芯片上使处理过程极为节能." 在软件方面, Sze 正在设计算法代码的 "剪枝", 以去除深层网络中的能源密集型 "权重", 并进行其他调整. 她正在研究的一个潜在应用是眼动跟踪, 以帮助诊断神经退行性疾病, 这可以通过患者家中的普通智能手机来完成, 而到目前为止通常需要昂贵的办公室设备.
来源: http://ai.51cto.com/art/202111/689377.htm