深度神经网络(DNNs)使用32位IEEE单精度来表示浮点模型权重和激活张量进行训练。在训练期间,通过利用CPU,特别是具有大型计算能力的GPU,这种计算预算通常是可以接受的。然而,这些模型往往需要在内存和计算能力有限的系统上运行,如嵌入式设备。因此,由于需要大量的乘法累积运算(MAC),在资源受限的嵌入式系统上使用32位表示法运行DNN推理并不总是实用。
阅读直达链接:https://community.arm.com/arm-community-blogs/b/ai-and-ml-blog/posts/optimize-a-ml-model-for-inference-on-ethos-u-micronpu
作者:Elham Harirpoush
欢迎大家点赞留言,更多Arm技术文章动态请关注极术社区Arm技术专栏