AI学习者 · 2021年02月22日

谷歌TPU 训练 TensorFlow 模型

文章转载于:阿chai带你学AI
作者:TensorFlow

我是来自山区、朴实、不偷电瓶的AI算法工程师阿chai,给大家分享人工智能、自动驾驶、机器人、3D感知相关的知识

阿chai首先祝大家新年快乐。今天给大家带来谷歌TPU上做深度学习训练的教程,喜欢的小伙伴可以看看

Tensor Processing Unit - TPU

TPU 简介

什么是 TPU

TPU 代表 Tensor Processing Unit (张量处理单元) ,是由谷歌在 2016 年 5 月发布的为机器学习而构建的定制集成电路(ASIC),并为 TensorFlow 量身定制。

早在 2015 年,谷歌大脑团队就成立了第一个 TPU 中心,为 Google Translation,Photos 和 Gmail 等产品提供支持。为了使所有数据科学家和开发人员能够访问此技术,不久之后就发布了易于使用,可扩展且功能强大的基于云的 TPU,以便在 Google Cloud 上运行 TensorFlow 模型。

TPU 由多个计算核心(Tensor Core)组成,其中包括标量,矢量和矩阵单元(MXU)。TPU(张量处理单元)与 CPU(中央处理单元)和 GPU(图形处理单元)最重要的区别是:TPU 的硬件专为线性代数而设计,线性代数是深度学习的基石。在过去几年中,Google TPU 已经发布了 v1,v2,v3, v2 Pod, v3 Pod, Edge 等多个版本:

image.png

  • 注:
  1. Tera: 万亿,10 的 12 次方 1. Peta: 千万亿,10 的 15 次方 1. FLOPS:每秒浮点数计算次数(FLoating-point Operations Per Second) 1. OPS: 每秒位整数计算次数(Integer Operations Per Second)

基于 Google Cloud,TPU 可以方便的进行建立和使用。同时,Google 也推出了专门为边缘计算环境而部署的 Edge TPU。Edge TPU 尺寸小,功耗低,性能高,可以在边缘计算环境中广泛部署高质量的 AI。其作为 Cloud TPU 的补充,可以大大促进 AI 的解决方案在 IoT 环境中的部署。

为什么使用 TPU

通过使用 Cloud TPU ,我们可以大大提升 TensorFlow 进行机器学习训练和预测的性能,并能够灵活的帮助研究人员,开发人员和企业 TensorFlow 计算群集。

image.png
TPU Pod

根据 Google 提供的数据显示,在 Google Cloud TPU Pod 上可以仅用 8 分钟就能够完成 ResNet-50 模型的训练。

image.png

Source: Google

TPU 性能

根据研究显示,TPU 比现代 GPU 和 CPU 快 15 到 30 倍。同时,TPU 还实现了比传统芯片更好的能耗效率,算力能耗比值提高了 30 倍至 80 倍。

image.png
Source: An in-depth look at Google’s first Tensor Processing Unit (TPU)

TPU 环境配置

免费 TPU:Google Colab

最方便使用 TPU 的方法,就是使用 Google 的 Colab ,不但通过浏览器访问直接可以用,而且还免费。

在 Google Colab 的 Notebook 界面中,打开界面中,打开主菜单 Runtime ,然后选择 Change runtime type,会弹出 Notebook settings 的窗口。选择里面的 Hardware accelerator 为 TPU 就可以了。

为了确认 Colab Notebook 中的确分配了 TPU 资源,我们可以运行以下测试代码。如果输出 ERROR 信息,则表示目前的 Runetime 并没有分配到 TPU;如果输出 TPU 地址及设备列表,则表示 Colab 已经分配了 TPU。

import osimport tensorflow as tfif 'COLAB_TPU_ADDR' not in os.environ:    print('ERROR: Not connected to a TPU runtime')else:    tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR']    print ('TPU address is', tpu_address)

输出信息:

TPU address is grpc://10.49.237.2:8470

看到以上信息(TPU grpc address),既可以确认 Colab 的 TPU 环境设置正常。

Cloud TPU

在 Google Cloud 上,我们可以购买所需的 TPU 资源,用来按需进行机器学习训练。为了使用 Cloud TPU ,需要在 Google Cloud Engine 中启动 VM 并为 VM 请求 Cloud TPU 资源。请求完成后,VM 就可以直接访问分配给它专属的 Cloud TPU 了。

image.png
../../\_images/cloud-tpu-architecture.png

\> Source: TPUs for Developers

在使用 Cloud TPU 时,为了免除繁琐的驱动安装,我们可以通过直接使用 Google Cloud 提供的 VM 操作系统镜像。

TPU 基础使用

在 TPU 上进行 TensorFlow 分布式训练的核心 API 是 tf.distribute.TPUStrategy ,可以简单几行代码就实现在 TPU 上的分布式训练,同时也可以很容易的迁移到 GPU 单机多卡、多机多卡的环境。以下是如何实例化 TPUStrategy :

tpu = tf.distribute.cluster_resolver.TPUClusterResolver()tf.config.experimental_connect_to_cluster(tpu)tf.tpu.experimental.initialize_tpu_system(tpu)strategy = tf.distribute.experimental.TPUStrategy(tpu)

在上面的代码中,首先我们实例化 TPUClusterResolver;然后,我们连接 TPU Cluster,并对其进行初始化;最后,完成实例化 TPUStrategy。

以下使用 Fashion MNIST 分类任务展示 TPU 的使用方式。本小节的源代码可以在 https://github.com/huan/tenso... 找到。

更方便的是在 Google Colab 上直接打开本例子的 Jupyter 直接运行,地址:https://colab.research.google... (推荐)

import tensorflow as tfimport numpy as npimport os(x_train, y_train), (x_test, y_test) = tf.keras.datasets.fashion_mnist.load_data()# add empty color dimensionx_train = np.expand_dims(x_train, -1)x_test = np.expand_dims(x_test, -1)def create_model():    model = tf.keras.models.Sequential()    model.add(tf.keras.layers.Conv2D(64, (3, 3), input_shape=x_train.shape[1:]))    model.add(tf.keras.layers.MaxPooling2D(pool_size=(2, 2), strides=(2,2)))    model.add(tf.keras.layers.Activation('relu'))    model.add(tf.keras.layers.Flatten())    model.add(tf.keras.layers.Dense(10))    model.add(tf.keras.layers.Activation('softmax'))    return modeltpu = tf.distribute.cluster_resolver.TPUClusterResolver()tf.config.experimental_connect_to_cluster(tpu)tf.tpu.experimental.initialize_tpu_system(tpu)strategy = tf.distribute.experimental.TPUStrategy(tpu)with strategy.scope():    model = create_model()    model.compile(        optimizer=tf.keras.optimizers.Adam(learning_rate=1e-3),        loss=tf.keras.losses.sparse_categorical_crossentropy,        metrics=[tf.keras.metrics.sparse_categorical_accuracy])model.fit(    x_train.astype(np.float32), y_train.astype(np.float32),    epochs=5,    steps_per_epoch=60,    validation_data=(x_test.astype(np.float32), y_test.astype(np.float32)),    validation_freq=5)

以上程序运行输出为:

Epoch 1/560/60 [==========] - 1s 23ms/step - loss: 12.7235 - accuracy: 0.7156Epoch 2/560/60 [==========] - 1s 11ms/step - loss: 0.7600 - accuracy: 0.8598Epoch 3/560/60 [==========] - 1s 11ms/step - loss: 0.4443 - accuracy: 0.8830Epoch 4/560/60 [==========] - 1s 11ms/step - loss: 0.3401 - accuracy: 0.8972Epoch 5/560/60 [==========] - 4s 60ms/step - loss: 0.2867 - accuracy: 0.907210/10 [==========] - 2s 158ms/step10/10 [==========] - 2s 158ms/stepval_loss: 0.3893 - val_sparse_categorical_accuracy: 0.8848

推荐阅读

更多嵌入式AI技术干货请关注嵌入式AI专栏。
推荐阅读
关注数
16523
内容数
1230
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息