打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
微软发布嵌入式学习库ELL,想在面包屑大小的芯片上运行神经网络(附代码)

李林 编译自 ZDNet
量子位 报道 | 公众号 QbitAI

微软昨天发布了一个嵌入式学习库(Embedded Learning Library, ELL),包括一个用在树莓派上等开发板上的预训练图像识别模型。

比如说把图像识别模型放到树莓派上,连接一个摄像头,它不用联网就能认出很多日常物体,然后在树莓派接入的显示器上显示一个标签:

微软一直想缩小机器学习模型,让它们能在各种设备的低能耗芯片上运行,这样,我们身边的摄像头、家用电器不用联网,也能智能起来。这也就是微软CEO纳德拉在今年Build开发者大会上所强调的边缘计算。

ELL正是成果之一。

ELL的早期预览版已经放到了GitHub上,C 和Python都可用。地址:

https://github.com/Microsoft/ELL

Ofer Dekel

微软Redmond研究院的Ofer Dekel领导了这项研究,他带领着30人的小组,其中包括Redmond和印度班加罗尔的计算机科学家、软件工程师、研究实习生。

微软Redmond研究院参与这项研究的部分成员

微软班加罗尔研究院参与这项研究的部分成员

微软在官方博客中说,在树莓派上运行神经网络并不是他们的终极目标,这个团队最终想把模型压缩到更小,小到能在面包屑大小的ARM Cortex-M0上运行,也就是上图Dekel手中的那个芯片。

他们现在已经把机器学习模型压缩到了原来的1/10,甚至1/100,不过要在M0上运行,需要压缩到1/1000-1/10000。

目前,微软研究员们尝试过的最小的芯片是Arduino Uno,RAM只有2 kilobytes。

为了将机器学习模型缩小,Dekel的团队尝试了各种方法,其中之一叫做权重量化(weight quantization),不用标准的32比特来表示神经网络参数,而是用个位数的比特值,甚至1比特。

同时,这个团队也在尝试剪枝的方法,或者叫稀疏化。这种方法想通过去除神经网络的冗余部分,来压缩模型大小。

当机器学习模型能在极小的芯片上运行,会给我们的世界带来很多新型智能设备,比如在边远地区自动探测土壤湿度的灌溉设施,比如植入人脑的芯片。

【完】

一则通知

量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。李开复、王咏刚、王乃岩、王弢等大牛都在群里。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
开源 | 微软开源嵌入式机器学习库ELL:把人工智能扩展到边缘设备
你傻ell劳劳碌碌
Arduino、arm、树莓派、单片机四者有什么不同?
e络盟专访:一家技术型分销商 | 树莓派等硬件开发平台是物联网初期设计的首选
国产操作系统二十年“守夜人”
日本人的操作系统,差点儿统治世界
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服