RTThreadIoTOS · 2021年02月20日

【20210219期AI简报】嵌入式机器学习(TinyML)实战教程、谷歌开源计算框架JAX...

导读:本期为 AI 简报 20210219 期,将为您带来 8 条相关新闻,新春过后第一弹,春天到啦,开工大吉~新年新气象,希望大家多多关注社区,更多精彩等着你~

本文一共 2760 字,通篇阅读结束需要 6~10 分钟

1. STM32 嵌入式机器学习(TinyML)实战教程-01 |  边缘智能实验室

image.png

第1部分:总体介绍

在STM32H747I Discovery开发板上,使用机器学习技术,开发机器视觉应用,本教程由ST(意法半导体)官方发布。

边缘智能实验室原创中文字幕,感谢支持。

视频中涉及的文档(也可到ST官网下载):

链接:https://pan.baidu.com/s/1K1Dr2vMUZ8UmtVbZHkKAVA

提取码:w41p

2. 为AI而生,打破存储墙,佐治亚理工等提出新型嵌入式无电容DRAM | 机器之心

image.png

当今计算中最大的问题之一是「存储墙」,即处理时间与将数据从单独的 DRAM 存储器芯片传送到处理器所花费时间之间的差距。AI 应用的日益普及只会加剧该问题,因为涉及面部识别、语音理解、消费商品推荐的巨大网络很少能容纳在处理器的板载内存上。

在 2020 年 12 月举行的 IEEE 国际电子设备会议(IEDM)上,一些研究小组认为:一种新型的 DRAM 可能成为「存储墙」问题的解决方案。他们表示:「这种新型的 DRAM 由氧化物半导体制成,并内置在处理器上方的各层中,其位长是商用 DRAM 的数百或数千倍,并且在运行大型神经网络时可以提供较大的区域,节省大量能源。」

新型嵌入式 DRAM 仅由两个晶体管制成,没有电容器,简称为 2T0C。之所以可以这样做,是因为晶体管的栅极是天然的电容器(尽管有些小)。因此代表该位的电荷可以存储在此处。该设计具有一些关键优势,特别是对于 AI 来说。

原文链接:https://spectrum.ieee.org/tec...

3. 明年,我要用 AI 给全村写对联 | HyperAI超神经

image.png

春节接近尾声,你是否还沉浸在年味里?

年前的腊月二十九、三十,家家户户都要开始贴春联了。今年,各种 AI 写春联应用都纷纷上线,帮大家写春联,要不来试试?

对联对联,讲究的就是「成对」,要对仗工整,平仄协调。不过现代人的对对联技能,已经远不如古代的文人墨客,甚至有时候可能连上下联都傻傻分不清楚。而聪明的 AI 已经学会自己写对联了。

4. DeepMind最新研究NFNet:抛弃归一化,深度学习模型准确率却达到了前所未有的水平 | 机器之心

image.png

我们知道,在传递给机器学习模型的数据中,我们需要对数据进行归一化(normalization)处理。

在数据归一化之后,数据被「拍扁」到统一的区间内,输出范围被缩小至 0 到 1 之间。人们通常认为经过如此的操作,最优解的寻找过程明显会变得平缓,模型更容易正确的收敛到最佳水平。

然而这样的「刻板印象」最近受到了挑战,DeepMind 的研究人员提出了一种不需要归一化的深度学习模型 NFNet,其在大型图像分类任务上却又实现了业内最佳水平(SOTA)。

该论文的第一作者,DeepMind 研究科学家 Andrew Brock 表示:「我们专注于开发可快速训练的高性能体系架构,已经展示了一种简单的技术(自适应梯度裁剪,AGC),让我们可以训练大批量和大规模数据增强后的训练,同时达到 SOTA 水平。」

5. 在游戏里还原自己的脸,给AI一张照片就行,网易&密歇根大学出品 | AAAI 2021 开源 | 量子位

给AI一张毛不易的照片,它自动就能生成一个古风毛大侠。

image.png

现在,想在游戏里定制化自己的脸,你可以不用自己花时间琢磨参数了。

熟悉游戏的小伙伴可能认出来了,这一套AI捏脸术,来自网易伏羲人工智能实验室和密歇根大学。

现在,最新相关研究登上了AAAI 2021。

据作者介绍,这个名为MeInGame的方法,可以集成到大多数现有的3D游戏中,并且相比于单纯基于3DMM(3D Morphable Face Model )的方法,成本更低,泛化性能更好。

6. 谷歌开源计算框架JAX:比Numpy快30倍,还可在TPU上运行! | 新智元

image.png

相信大家对numpy, Tensorflow, Pytorch已经极其熟悉,不过,你知道JAX吗?

JAX发布之后,有网友进行了测试,发现,使用JAX,Numpy运算可以快三十多倍!

下面是使用Numpy的运行情况:

1import numpy as np  # 使用标准numpy,运算将在CPU上执行。2x = np.random.random([5000, 5000]).astype(np.float32)3%timeit np.matmul(x, x)

运行结果:

1 loop, best of 3: 3.9 s per loop

而下面是使用JAX的Numpy的情况:

1import jax.numpy as np # 使用"JAX版"的numpy 2from jax import random # 注意JAX下随机数API有所不同 3x = random.uniform(random.PRNGKey(0), [5000, 5000]) 4%timeit np.matmul(x, x)

运行情况:

1 loop, best of 3: 109 ms per loop

我们可以发现,使用原始numpy,运行时间大概为3.9s,而使用JAX的numpy,运行时间仅仅只有0.109s,速度上直接提升了三十多倍!

那JAX到底是什么?

JAX是谷歌开源的、可以在CPU、GPU和TPU上运行的numpy,是针对机器学习研究的高性能自微分计算框架。简单来说,就是GPU和TPU加速、支持自动微分(autodiff)的numpy。

7. 大年初四,宜学习:MIT 6.S191视频、PPT上新!网友:这是最好的深度学习入门课之一 | 机器之心

image.png

课程主页:http://introtodeeplearning.com/

小编:之前也有推过该课程,开课之后反响确实不错

春节刚过,先来学点简单的。

越是入门的课程,可能越不好讲。

在深度学习领域,我们可以检索到各种各样的入门课程,但真正能让人「入门」的可能没有几个。

在为数不多的「真 · 入门」课程里面,MIT 的《深度学习导论(6.S191)》着实值得一提。最近,这门课程的更新又引起了新一轮的围观,刚放出几天的视频已经有了 7 万多的点击量。

有人甚至称赞说:「在现有的课程里面,这绝对是最好的深度学习入门课程之一。」

从各方反馈来看,它的「好」主要体现在以下几个方面:

  1. 门槛不高。部分学生表示,这门课程不需要你有多深厚的基础知识,也不需要精通 Python,很多非计算机科学领域的学生也能受益匪浅。
  2. 老师的讲解通俗易懂,而且 PPT 制作非常用心。

8. 新年立个小目标!代码写得更规范! | 夕小瑶的卖萌屋

如果对自己写的代码羞于给同事欣赏的,不妨点进来看一看….

image.png

9. 其他


推荐阅读
【20210205期AI简报】联发科发布二代5G基带芯片发布
【20210129期AI简报】 25元、264KB内存的微处理器上市、GPT-3自动生成SQL语句!
μC/OS-II兼容层——让基于μC/OS-II开发的应用层无感地迁移到RT-Thread操作系统

文章转载于微信公众号:RTThread物联网操作系统
作者: lebhoryi
推荐阅读
关注数
8071
内容数
181
小而美的物联网操作系统,经过14年的累积发展,RT-Thread 已经拥有一个国内最大的嵌入式开源社区,同时被广泛应用于能源、车载、医疗、消费电子等多个行业,累积装机量超过4亿台,成为国人自主开发、国内最成熟稳定和装机量最大的开源 RTOS。
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息