ZKX's LAB

降低功耗94%,设备不再是AI任务的绊脚石

2020-11-20新闻19

应用大脑研究(ABR)的研究人员表示,已经在一系列人工智能设备上取得了显著的降低功耗的成果。

ABR设计了一种名为勒让德记忆单元(LMU)的新型神经网络。借助LMU,设备上在执行人工智能任务时可以减少94%的电量,如可穿戴设备、智能手机和智能扬声器等具有语音功能的设备。

通过LMU实现的功耗降低将对智能手表等体积系数更小的设备特别有利,因为这种设备的体型小,电池容量相对较小,降低耗电量和能耗可以令使用者获得更佳的体验。执行人工智能任务的物联网设备也会受益,但在被替换之前可能需要持续数月甚至数年时间。

LMU被描述为递归神经网络(RNN),它可以降低功率并更精确地处理时变信号。

ABR表示,LMU可以用于构建用于所有时变任务的人工智能网络,如语音处理、视频分析、传感器监控和控制系统。

人工智能行业当前的首选模型是长期短期记忆(LSTM)网络。LSTM最早是在1995年提出的,如今已用于最流行的语音识别和翻译服务,例如Google,Amazon,Facebook和Microsoft的服务。

去年,滑铁卢大学的研究人员首次推出了LMU作为LSTM的替代RNN。这些研究人员继续组建了ABR,目前由20名员工组成。

Applied Brain Research联合首席执行官Peter Suma在一封电子邮件中说:

“我们是威斯康星大学理论神经科学实验室的滑铁卢大学分校。我们研究了大脑如何及时处理信号,并根据大脑中“时间单元”的工作方式创建了一种算法。

在我们使用数学工具对时间单元进行建模之后,我们将新的AI称为Legendre-Memory-Unit(LMU)。在数学上证明LMU在处理信号方面是最佳的。你不能做得更好。在未来几年,这将使所有形式的人工智能变得更好。”

ABR在2019年晚些时候的NeurIPS会议上发表了一篇论文,该论文表明LMU比LSTM编码的时间步长100倍时,精度要高100万倍。

在尺寸方面,LMU模型也更小。LMU使用500个参数,而LSTM使用41,000个参数(网络大小减少98%)。

Suma说:“我们使用LMU实现了语音识别,它将用于命令字处理的功率降低到百万分之一瓦,比目前市场上最好的功率低了94%。”“对于完整的语音,我们将功率降低到4毫瓦,这比目前最好的版本要小70%。”

Suma说ABR的下一步是致力于视频、传感器和无人机控制的人工智能处理,使它们更小更好。Suma表示,ABR的下一步是致力于视频,传感器和无人机控制AI处理,以使其更小,更好。

#AI人工智能#设备#人工智能

随机阅读

qrcode
访问手机版