ronghuaiyang · 2021年05月13日

有监督对比学习的一个简单的例子

首发:AI公园公众号
作者:Dimitre Oliveira
编译:ronghuaiyang

导读

使用有监督对比学习来进行木薯叶病害识别。

论文链接:https://arxiv.org/abs/2004.11...

image.png
监督对比学习(Prannay Khosla等人)是一种训练方法,它在分类任务上优于使用交叉熵的监督训练。

这个想法是,使用监督对比学习(SCL)的训练模型可以使模型编码器从样本学习更好的类表示,这应该导致更好的泛化,并对于图像和标签的错误更具鲁棒性。

在本文中,你将了解什么是监督对比学习,以及监督对比学习是如何工作的,你会看到代码实现、一个应用程序的例子,最后将看到SCL和常规交叉熵之间的比较。

简而言之,SCL就是这样工作的:

在嵌入空间中将属于同一类的聚类点聚在一起,同时将来自不同类的样本簇分离。

有许多对比学习方法,如" 监督对比学习"," 自监督对比学习"," SimCLR "等,它们的比对部分都是共同的,它们学习来自一个域的样本和来自另一个域的样本的差别,但SCL以监督的方式利用标签信息完成这项任务。

image.png

不同的训练方法的结构

本质上,用监督对比学习对分类模型进行训练分为两个阶段:

  1. 训练编码器,学习生成输入图像的向量表示,这样,同类别图像的表示将比不同类别图像的表示更加相似。
  2. 在参数冻结的编码器上训练一个分类器。

例子

我们将把监督比较学习应用于Kaggle竞赛的数据集(Cassava Leaf Disease Classification),目的是将木薯叶的图像分类为5类:

0: Cassava Bacterial Blight (CBB)1: Cassava Brown Streak Disease (CBSD)2: Cassava Green Mottle (CGM)3: Cassava Mosaic Disease (CMD)4: Healthy

我们有四种疾病和一种健康的叶子,下面是一些图像样本:

image.png

来自比赛的木薯叶图像样本

数据有21397图像用于训练,大约有15000图像用于测试集。

实验设置

  • 数据:图像分辨率512 × 512像素。
  • 模型(编码器):EfficientNet B3。

你可以在这里查看:https://www.kaggle.com/dimitr...

通常,对比学习方法能更好地工作,如果每个训练一个batch都有每个类的样本,这将有助于编码器学会对比不同域之间的差别,这意味着需要使用一个大的batch size,在这种情况下,我已经对每个类进行了过采样,所以每个batch的样本中每个类样本的概率大致相同。

image.png

数据集中的类别分布,过采样之后

数据增强通常有助于计算机视觉任务,在我的实验中,我也看到了数据增强的改进,这里我使用剪切,旋转,翻转,作物,剪切,饱和度,对比度和亮度的变化,它可能看起来很多,但图像没有和原始图像有太大不同。

image.png

增强后的数据样本

现在我们可以看看代码了

编码器

我们的编码器将是一个“EfficientNet B3”,但是在编码器的顶部有一个平均池化层,这个池化层将输出一个2048大小的向量,稍后它将用于检查编码器学习到的表示。

def encoder_fn(input_shape):    inputs = L.Input(shape=input_shape, name=’inputs’)    base_model = efn.EfficientNetB3(input_tensor=inputs,                                     include_top=False,                                    weights=’noisy-student’,                                     pooling=’avg’)     model = Model(inputs=inputs, outputs=base_model.outputs)    return model

投影头

投影头位于编码器的顶部,负责将编码器嵌入层的输出投影到更小的尺寸中,在我们的例子中,它将2048维的编码器投影到128维的向量中。

def add_projection_head(input_shape, encoder):    inputs = L.Input(shape=input_shape, name='inputs')    features = encoder(inputs)    outputs = L.Dense(128, activation='relu',                       name='projection_head',                       dtype='float32')(features)        model = Model(inputs=inputs, outputs=outputs)    return model

分类头

分类器头用于的可选的第二阶段训练,在SCL 训练阶段之后,我们可以去掉投影头,把这个分类器头加到编码器上,并使用常规的交叉熵损失来finetune模型,这样做的时候,需要冻结编码器层。

def classifier_fn(input_shape, N_CLASSES, encoder, trainable=False):    for layer in encoder.layers:        layer.trainable = trainable            inputs = L.Input(shape=input_shape, name='inputs')        features = encoder(inputs)    features = L.Dropout(.5)(features)    features = L.Dense(1000, activation='relu')(features)    features = L.Dropout(.5)(features)    outputs = L.Dense(N_CLASSES, activation='softmax',                       name='outputs', dtype='float32')(features)    model = Model(inputs=inputs, outputs=outputs)    return model

监督对比学习损失

这是SCL损失的代码实现,这里唯一的参数是temperature,“0.1”是默认值,但它可以调整,较大的temperatures可以导致类更分离,但较小的temperatures 有益于较长的训练。

class SupervisedContrastiveLoss(losses.Loss):    def __init__(self, temperature=0.1, name=None):        super(SupervisedContrastiveLoss, self).__init__(name=name)        self.temperature = temperature    def __call__(self, labels, ft_vectors, sample_weight=None):        # Normalize feature vectors        ft_vec_normalized = tf.math.l2_normalize(ft_vectors, axis=1)        # Compute logits        logits = tf.divide(            tf.matmul(ft_vec_normalized,                       tf.transpose(ft_vec_normalized)            ), temperature        )        return tfa.losses.npairs_loss(tf.squeeze(labels), logits)

训练

我将跳过Tensorflow样板训练代码,因为它非常标准,但是你可以在这里:https://www.kaggle.com/dimitr...

第一个训练步骤 (编码器 + 投影头)

第一阶段的训练是用编码器+投影头,使用有监督对比学习损失。

构建模型

with strategy.scope(): # Inside a strategy because I am using a TPU  encoder = encoder_fn((None, None, CHANNELS)) # Get the encoder  encoder_proj = add_projection_head((None, None, CHANNELS),encoder)  # Add the projection head to the encoderencoder_proj.compile(optimizer=optimizers.Adam(lr=3e-4),                     loss=SupervisedContrastiveLoss(temperature=0.1))

训练

model.fit(x=get_dataset(TRAIN_FILENAMES,                         repeated=True,                         augment=True),           validation_data=get_dataset(VALID_FILENAMES,                                       ordered=True),           steps_per_epoch=100,           epochs=10)

第二个训练步骤 (编码器 + 分类头)

对于训练的第二阶段,我们删除投影头,并在编码器的顶部添加分类器头,现在该编码器已经训练了权值。对于这一步,我们可以使用常规的交叉熵损失,像往常一样训练模型。

构建模型

with strategy.scope():    model = classifier_fn((None, None, CHANNELS), N_CLASSES,                           encoder, # trained encoder                          trainable=False) # with frozen weights    model.compile(optimizer=optimizers.Adam(lr=3e-4),                  loss=losses.SparseCategoricalCrossentropy(),                   metrics=[metrics.SparseCategoricalAccuracy()])

训练

和之前几乎一样

model.fit(x=get_dataset(TRAIN_FILENAMES,                         repeated=True,                         augment=True),           validation_data=get_dataset(VALID_FILENAMES,                                       ordered=True),           steps_per_epoch=100,           epochs=10)

可视化输出向量

评估编码器的学习表示的一种有趣的方法是可视化特征嵌入的输出,在我们的例子中,它是编码器的最后一层,即平均池化层。在这里,我们将比较用SCL训练的模型和另一个用常规交叉熵训练的模型,你可以在:https://www.kaggle.com/dimitr...

交叉熵的嵌入

image.png

对使用交叉熵训练的模型嵌入进行可视化

监督对比学习的嵌入

image.png
使用SCL训练出的模型的嵌入的可视化。

我们可以看到,两种模型在对每个类进行样本聚类的时候似乎都可以做的不错,但看下SCL模型训练出来的嵌入,每个类的簇相互之间的距离要更远,这就是对比学习的效果。我们也可以认为,这种行为将导致更好的泛化,因为类的判别边界会更清晰、如果去尝试画一下类别之间的边界,就可以得到一个很直观的理解。

总结

我们看到,使用监督对比学习方法的训练既容易实现又有效,它可以带来更好的准确性和更好的类表示,这反过来也可以产生更健壮的模型,能够更好地泛化。

—END—

英文原文:https://pub.towardsai.net/sup...

推荐阅读

关注图像处理,自然语言处理,机器学习等人工智能领域,请点击关注AI公园专栏
欢迎关注微信公众号
AI公园 公众号二维码.jfif
推荐阅读
关注数
8256
内容数
210
关注图像处理,NLP,机器学习等人工智能领域
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息