24

极术直播小助手 · 9月10日 · 北京

极术干货| “周易” NPU平台上部署Yolov4与MicroLlama模型详解

公开课内容

随着AI大模型加速向边缘侧和端侧渗透,NPU(神经网络处理器)因其更简洁的控制流及更高的能效比,成为处理AI工作负载的关键算力资源。安谋科技自研“周易” NPU面向大模型场景进行了架构、内存墙等多方面改进,能够显著提高AI应用开发的生产效率。本期极术公开课,安谋科技的两位技术专家将分别围绕Yolov4轻量级模型、MicroLlama模型进行深入分享,并详细介绍这两款模型如何在“周易” NPU平台上进行部署以及在SiRider S1芯擎开发板上运行。

分享要点

  • “周易” NPU及其软件工具链解读
  • Yolov4轻量级模型部署及定量调整介绍
  • 在SiRider S1芯擎开发板上运行Yolov4展示
  • 主流大语言模型及端侧部署的特点分析
  • 从PyTorch到“周易”NPU的模型部署详解

视频回放及PPT下载

对Arm技术、应用及行业趋势感兴趣的欢迎添加极术小姐姐微信(微信id:aijishu20)加入极术社区技术交流群,一起探讨交流行业技术及前沿动态,掌握先机。
image.png

如有相关技术问答,也欢迎到https://aijishu.com/t/shanhai 提问,我们会邀请嘉宾来回复。

更多公开课信息请关注极术公开课频道

请注意初次下载PPT和观看回放需要完成新手任务,可查看此教程或者咨询极术小姐姐(微信:aijishu20)。
文件名 大小 下载次数 操作
【极术公开课】“周易” NPU平台上部署Yolov4与MicroLlama模型详解.pdf 4.74MB 28 下载
推荐阅读
关注数
9264
内容数
103
含极术社区WebinarPPT下载及回放,线下活动技术干货PPT,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息