极术小姐姐 · 2021年01月27日

充分利用Arm NN进行GPU推理:FP16和FastMath

GPU_2D00_inference_2D00_post_2D00_image_2D005F00_2800_5F00_1_5F00_2900_5F00_.jpg_5F00_2D00_5F00_900x506x2.jpg_2D00_900x506x2.jpg

深度学习中的大多数操作涉及大量数据,但只涉及简单的控制逻辑。作为并行处理器,GPU非常适合此类任务。由于具有数百个算术逻辑单元(ALU),当前的高端移动GPU可以提供可观的吞吐量。实际上,GPU的设计只有一个目的——并行数据处理。它最初被用于3D图形,后来用于更通用的并行计算。

作者:Roberto Lopez Mendez
阅读直达链接:https://community.arm.com/developer/ip-products/processors/b/ml-ip-blog/posts/making-the-most-of-arm-nn-for-gpu-inference

欢迎大家点赞留言,更多Arm技术文章动态请关注极术社区Arm技术专栏

推荐阅读
关注数
23406
内容数
899
Arm相关的技术博客,提供最新Arm技术干货,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息