1 个回答 得票排序 · 时间排序
慕一Craftsperson · 2020年03月13日

深度模型inference时间跟计算硬件、CNN结构、部署方法都有关系,yolov3在gtx1080ti下可以50ms per second, mssd分v1,v2,v3,由于CNN结构较小,且在设计上采用depthwise的设计思路,被广泛用于端侧进行使用,我在树莓派3b+上inference在10fps左右,而通过Tengine类似的加速框架可以有效提高inference速度。这个有待测试

你的回答