导读:本期为 AI 简报 20210219 期,将为您带来 8 条相关新闻,新春过后第一弹,春天到啦,开工大吉~新年新气象,希望大家多多关注社区,更多精彩等着你~本文一共 2760 字,通篇阅读结束需要 6~10 分钟
1. STM32 嵌入式机器学习(TinyML)实战教程-01 | 边缘智能实验室
第1部分:总体介绍
在STM32H747I Discovery开发板上,使用机器学习技术,开发机器视觉应用,本教程由ST(意法半导体)官方发布。
边缘智能实验室原创中文字幕,感谢支持。
视频中涉及的文档(也可到ST官网下载):
链接:https://pan.baidu.com/s/1K1Dr2vMUZ8UmtVbZHkKAVA
提取码:w41p
2. 为AI而生,打破存储墙,佐治亚理工等提出新型嵌入式无电容DRAM | 机器之心
当今计算中最大的问题之一是「存储墙」,即处理时间与将数据从单独的 DRAM 存储器芯片传送到处理器所花费时间之间的差距。AI 应用的日益普及只会加剧该问题,因为涉及面部识别、语音理解、消费商品推荐的巨大网络很少能容纳在处理器的板载内存上。
在 2020 年 12 月举行的 IEEE 国际电子设备会议(IEDM)上,一些研究小组认为:一种新型的 DRAM 可能成为「存储墙」问题的解决方案。他们表示:「这种新型的 DRAM 由氧化物半导体制成,并内置在处理器上方的各层中,其位长是商用 DRAM 的数百或数千倍,并且在运行大型神经网络时可以提供较大的区域,节省大量能源。」
新型嵌入式 DRAM 仅由两个晶体管制成,没有电容器,简称为 2T0C。之所以可以这样做,是因为晶体管的栅极是天然的电容器(尽管有些小)。因此代表该位的电荷可以存储在此处。该设计具有一些关键优势,特别是对于 AI 来说。
原文链接:https://spectrum.ieee.org/tec...
3. 明年,我要用 AI 给全村写对联 | HyperAI超神经
春节接近尾声,你是否还沉浸在年味里?
年前的腊月二十九、三十,家家户户都要开始贴春联了。今年,各种 AI 写春联应用都纷纷上线,帮大家写春联,要不来试试?
对联对联,讲究的就是「成对」,要对仗工整,平仄协调。不过现代人的对对联技能,已经远不如古代的文人墨客,甚至有时候可能连上下联都傻傻分不清楚。而聪明的 AI 已经学会自己写对联了。
4. DeepMind最新研究NFNet:抛弃归一化,深度学习模型准确率却达到了前所未有的水平 | 机器之心
- Paper:
- DeepMind 还放出了模型的实现:
我们知道,在传递给机器学习模型的数据中,我们需要对数据进行归一化(normalization)处理。
在数据归一化之后,数据被「拍扁」到统一的区间内,输出范围被缩小至 0 到 1 之间。人们通常认为经过如此的操作,最优解的寻找过程明显会变得平缓,模型更容易正确的收敛到最佳水平。
然而这样的「刻板印象」最近受到了挑战,DeepMind 的研究人员提出了一种不需要归一化的深度学习模型 NFNet,其在大型图像分类任务上却又实现了业内最佳水平(SOTA)。
该论文的第一作者,DeepMind 研究科学家 Andrew Brock 表示:「我们专注于开发可快速训练的高性能体系架构,已经展示了一种简单的技术(自适应梯度裁剪,AGC),让我们可以训练大批量和大规模数据增强后的训练,同时达到 SOTA 水平。」
5. 在游戏里还原自己的脸,给AI一张照片就行,网易&密歇根大学出品 | AAAI 2021 开源 | 量子位
- 论文地址:
https://arxiv.org/abs/2102.02371- GitHub地址:
https://github.com/FuxiCV/MeI...
给AI一张毛不易的照片,它自动就能生成一个古风毛大侠。
现在,想在游戏里定制化自己的脸,你可以不用自己花时间琢磨参数了。
熟悉游戏的小伙伴可能认出来了,这一套AI捏脸术,来自网易伏羲人工智能实验室和密歇根大学。
现在,最新相关研究登上了AAAI 2021。
据作者介绍,这个名为MeInGame的方法,可以集成到大多数现有的3D游戏中,并且相比于单纯基于3DMM(3D Morphable Face Model )的方法,成本更低,泛化性能更好。
6. 谷歌开源计算框架JAX:比Numpy快30倍,还可在TPU上运行! | 新智元
相信大家对numpy, Tensorflow, Pytorch已经极其熟悉,不过,你知道JAX吗?
JAX发布之后,有网友进行了测试,发现,使用JAX,Numpy运算可以快三十多倍!
下面是使用Numpy的运行情况:
1import numpy as np # 使用标准numpy,运算将在CPU上执行。2x = np.random.random([5000, 5000]).astype(np.float32)3%timeit np.matmul(x, x)
运行结果:
1 loop, best of 3: 3.9 s per loop
而下面是使用JAX的Numpy的情况:
1import jax.numpy as np # 使用"JAX版"的numpy 2from jax import random # 注意JAX下随机数API有所不同 3x = random.uniform(random.PRNGKey(0), [5000, 5000]) 4%timeit np.matmul(x, x)
运行情况:
1 loop, best of 3: 109 ms per loop
我们可以发现,使用原始numpy,运行时间大概为3.9s,而使用JAX的numpy,运行时间仅仅只有0.109s,速度上直接提升了三十多倍!
那JAX到底是什么?
JAX是谷歌开源的、可以在CPU、GPU和TPU上运行的numpy,是针对机器学习研究的高性能自微分计算框架。简单来说,就是GPU和TPU加速、支持自动微分(autodiff)的numpy。
7. 大年初四,宜学习:MIT 6.S191视频、PPT上新!网友:这是最好的深度学习入门课之一 | 机器之心
课程主页:http://introtodeeplearning.com/小编:之前也有推过该课程,开课之后反响确实不错
春节刚过,先来学点简单的。
越是入门的课程,可能越不好讲。
在深度学习领域,我们可以检索到各种各样的入门课程,但真正能让人「入门」的可能没有几个。
在为数不多的「真 · 入门」课程里面,MIT 的《深度学习导论(6.S191)》着实值得一提。最近,这门课程的更新又引起了新一轮的围观,刚放出几天的视频已经有了 7 万多的点击量。
有人甚至称赞说:「在现有的课程里面,这绝对是最好的深度学习入门课程之一。」
从各方反馈来看,它的「好」主要体现在以下几个方面:
- 门槛不高。部分学生表示,这门课程不需要你有多深厚的基础知识,也不需要精通 Python,很多非计算机科学领域的学生也能受益匪浅。
- 老师的讲解通俗易懂,而且 PPT 制作非常用心。
8. 新年立个小目标!代码写得更规范! | 夕小瑶的卖萌屋
如果对自己写的代码羞于给同事欣赏的,不妨点进来看一看….
9. 其他
- 用树莓派的方式打开《Bad Apple!!》原来是这样子的 | 量子位
- 前沿|真会玩,程序员用AI认双胞胎儿子!“这个树莓派版人脸识别系统,没我认得准” | 机器人大讲堂
- 超英伟达A100,IBM宣布全球首个7nm训练推理节能芯片,登上顶会ISSCC 2021 | 机器之心
- FastFormers:实现Transformers在CPU上223倍的推理加速 | CVer
推荐阅读
【20210205期AI简报】联发科发布二代5G基带芯片发布
【20210129期AI简报】 25元、264KB内存的微处理器上市、GPT-3自动生成SQL语句!
μC/OS-II兼容层——让基于μC/OS-II开发的应用层无感地迁移到RT-Thread操作系统
文章转载于微信公众号:RTThread物联网操作系统
作者: lebhoryi