极术小姐姐 · 2022年01月12日

优化ML模型,在Ethos-U microNPU上实现快速推理

image.png
深度神经网络(DNNs)使用32位IEEE单精度来表示浮点模型权重和激活张量进行训练。在训练期间,通过利用CPU,特别是具有大型计算能力的GPU,这种计算预算通常是可以接受的。然而,这些模型往往需要在内存和计算能力有限的系统上运行,如嵌入式设备。因此,由于需要大量的乘法累积运算(MAC),在资源受限的嵌入式系统上使用32位表示法运行DNN推理并不总是实用。

阅读直达链接:https://community.arm.com/arm-community-blogs/b/ai-and-ml-blog/posts/optimize-a-ml-model-for-inference-on-ethos-u-micronpu
作者:Elham Harirpoush
欢迎大家点赞留言,更多Arm技术文章动态请关注极术社区Arm技术专栏
推荐阅读
关注数
23384
内容数
892
Arm相关的技术博客,提供最新Arm技术干货,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息