yahei 头像

yahei

55 声望
www.hey-yahei.cn 展开

www.hey-yahei.cn

收起
关注了
0
粉丝数
1
最新动态
  • 发布了文章 ·
    快如闪电的人脸检测——Tengine+libfacedetection

    前几天,深圳大学于仕琪老师突然开源了libfacedetection——号称最快的人脸检测项目(超越OpenCV,史上最快人脸检测系统开源 | 新智元)吸引了一大波人脸检测应用开发者围观,紧接着Tengine也立马对libfacedetection模型增加了支持,让我们一起来看看,在Tengine加持下的libfacedetection能快到什么程度吧!

    摘要图
  • 发布了文章 ·
    树莓派也能玩转深度学习——Tengine推断引擎

    一直以来,树莓派以其良好的社区生态,广受嵌入式爱好者、创客欢迎。在一些相关的社区上(比如树莓派实验室),我们可以看到非常丰富的应用示例及其教程。但在树莓派上的深度学习应用并不常见,这主要是受到树莓派计算力的限制,比如之前看到过有人把yolov2原原本本生硬地部署到树莓派上,结果每一帧检测耗时高达6分钟!...

    摘要图
  • 发布了文章 ·
    RK3399上Tengine平台搭建

    Tengine 是OPEN AI LAB 为嵌入式设备开发的一个轻量级、高性能并且模块化的引擎。 Tengine在嵌入式设备上支持CPU,GPU,DLA/NPU,DSP异构计算的计算框架,实现异构计算的调度器,基于ARM平台的高效的计算库实现,针对特定硬件平台的性能优化,动态规划计算图的内存使用,提供对于网络远端AI计算能力的访问支持,支持多级...

    摘要图
  • 发布了文章 ·
    漫谈池化层

    参考:《Hands-On Machine Learning with Scikit-Learn and TensorFlow(2017)》Chap13 《Hands-On Machine Learning with Scikit-Learn and TensorFlow》笔记《卷积神经网络——深度学习实践手册(2017.05)》《Deep Learning 深度学习(2017)》基本的池化操作简单的聚合操作,取均值、取最值等,分别称为平均池化(Average P...

    摘要图
  • 发布了文章 ·
    漫谈卷积层

    去年刚入手深度学习的时候写过一篇《卷积神经网络CNN | Hey~YaHei!》,简单介绍过卷积层——不过经过一年的学习和实践,对卷积又有了新的认识,原本讲道理应该直接更新修改去年的那篇博文的。但是那篇博文涉及面较广,不单单讲卷积,而且之后还写过几篇引用了那篇博文的内容,拾起来魔改似乎会打乱博客的结构,想想还是新...

    摘要图
  • 发布了文章 ·
    MixConv:混合感受野的深度可分离卷积

    继EfficientNet和CondConv之后,我们再来聊聊Google Brain的另一篇图像特征提取相关的论文《MixConv: Mixed Depthwise Convolutional Kernels(2019BMVC)》,作者采用类似inception的大小核混合卷积结果,再结合深度可分离卷积的特性,做到少量的额外代价即可提升卷积的特征提取能力。

    摘要图
  • 发布了文章 ·
    CondConv:按需定制的卷积权重

    最近正巧在看条件计算的东西,发现今年Google Brain发了一篇思路清奇的论文《CondConv: Conditionally Parameterized Convolutions for Efficient Inference(2019NeurIPS)》,这思路简直让人拍案叫绝,只可惜这种模型需要重新定制卷积算子才能有效发挥它的作用,如果没有工业界的推动想必短期内很难产生实用价值吧。 先...

    摘要图
  • 发布了文章 ·
    EfficientNet:模型设计新范式

    唔~2019年的图像特征提取方面似乎有了可喜的发展,大家不再盲目地堆大模型,而是寻找更加高效的特征提取结构,在显著减小参数量和计算量的同时模型的表现还能得到提升。同时我们可以看到深度可分离卷积及其变种几乎已经成为主流——

    摘要图
  • 发布了文章 ·
    Winograd数学原理

    早前《Winograd卷积原理 | Hey~YaHei!)》一文已经介绍过Winograd的卷积原理,但有些细节似乎尚不明确——Winograd为何能够奏效?它背后的数学原理是什么?变换矩阵如何得到?本文将借鉴《源于《孙子算经》的Cudnn | 知乎, Silicon Valley》和《wincnn/2464-supp.pdf | github, andravin》,深入剖析Winograd背后的数学原理...

  • 发布了文章 ·
    浅探Winograd量化

    上一篇文章《Winograd卷积原理 | Hey~YaHei!》已经介绍过Winograd卷积的基本原理,但终究是理论上的推导,在实际应用的时候其实有些耐人寻味的地方:数学推导假设的是无限的精度和数值范围,但实际计算机的运算精度与数值范围都是有限的,不过按照论文《Fast algorithms for convolutional neural(CVPR2016)》的报告,Wi...

    摘要图
  • 发布了文章 ·
    Winograd卷积原理

    Winograd算法最早于1980年由Shmuel Winograd在《Arithmetic complexity of computations(1980)》中提出,主要用来减少FIR滤波器的计算量。 该算法类似FFT,将数据映射到另一个空间上,用加减运算代替部分乘法运算,在“加减运算速度远高于乘法运算”的前提下达到明显的加速效果(与FFT不同的是,Winograd将数据映射到一个...

    摘要图
  • 关注了专栏 ·
    图标
    Hey~YaHei!

    闲来无事,胡说八道( ^・ω・^) [链接]

  • 关注了专栏 ·
    图标
    Tengine-AI开发平台

    Tengine是一款轻量级模块化高性能的神经网络推理引擎

认证与成就
获得 11 次点赞
7月18日 加入
qrcode
关注微信服务号
实时接收新的回答提醒和评论通知