公开课内容
随着AI大模型加速向边缘侧和端侧渗透,NPU(神经网络处理器)因其更简洁的控制流及更高的能效比,成为处理AI工作负载的关键算力资源。安谋科技自研“周易” NPU面向大模型场景进行了架构、内存墙等多方面改进,能够显著提高AI应用开发的生产效率。本期极术公开课,安谋科技的两位技术专家将分别围绕Yolov4轻量级模型、MicroLlama模型进行深入分享,并详细介绍这两款模型如何在“周易” NPU平台上进行部署以及在SiRider S1芯擎开发板上运行。
分享要点
- “周易” NPU及其软件工具链解读
- Yolov4轻量级模型部署及定量调整介绍
- 在SiRider S1芯擎开发板上运行Yolov4展示
- 主流大语言模型及端侧部署的特点分析
- 从PyTorch到“周易”NPU的模型部署详解
视频回放及PPT下载
- 视频回放链接:https://aijishu.com/l/1110000000481265
PPT部分预览(点击下方附件可直接下载)
对Arm技术、应用及行业趋势感兴趣的欢迎添加极术小姐姐微信(微信id:aijishu20)加入极术社区技术交流群,一起探讨交流行业技术及前沿动态,掌握先机。
如有相关技术问答,也欢迎到https://aijishu.com/t/shanhai 提问,我们会邀请嘉宾来回复。
更多公开课信息请关注极术公开课频道。
请注意初次下载PPT和观看回放需要完成新手任务,可查看此教程或者咨询极术小姐姐(微信:aijishu20)。
文件名 | 大小 | 下载次数 | 操作 |
---|---|---|---|
【极术公开课】“周易” NPU平台上部署Yolov4与MicroLlama模型详解.pdf | 4.74MB | 52 | 下载 |