AI学习者 · 2021年03月12日

【神经网络搜索】Microsoft NNI 有关NAS的核心类

文章转载于:GiantPandaCV
作者: pprp

【GiantPandaCV导语】本文介绍NNI PyTorch版实现神经网络过程搜索过程中的几个重要的类,比如LayerChoice和InputChoice,对这两个类有了初步认识以后,就可以设计自己的搜索空间。

1. Mutable类

image.png

上图是NNI的有关NAS的部分类图,Mutable类表示的意思是可变的,这也是实现NAS中的核心,操作是可变动的,具体选择什么操作需要优化器,也就是tuner来决定。

  • Mutable被设计成一个普通层,具有所有操作的权重。
  • Mutator中应该包含网络架构的状态和权重,而不是层本身。
  • Mutable对象有一个key,用于标记mutable对象的身份。用户可以根据key来进行共享不同mutable对象之间的决定。
  • 在Mutator的实现中,Mutator应该使用key区分不同的mutable对象。如果两个mutable对象的key是相同的,说明并不需要对其进行区分,即这两个mutable对象是相似的。
  • 当前key的默认作用域是全局的。默认情况下,key使用counter从1开始计数,来自动生成unique id
  • Mutable类属于模型级别的设置,counter是程序级别的。
class Mutable(nn.Module):    def __init__(self, key=None):        super().__init__()        if key is not None:            if not isinstance(key, str):                key = str(key)                logger.warning("Warning: key \"%s\" is not string, converted to string.", key)            self._key = key        else:            self._key = self.__class__.__name__ + str(global_mutable_counting())        self.init_hook = self.forward_hook = None

在初始化的时候,需要接收key,如果没有特别设置key,那就通过global\_mutable\_counting()方法返回全局变量counter数量。

2. MutableScope

MutableScope代码实现非常短,如下:

class MutableScope(Mutable):    def __init__(self, key):        super().__init__(key=key)    def __call__(self, *args, **kwargs):        try:            self._check_built()            self.mutator.enter_mutable_scope(self)            return super().__call__(*args, **kwargs)        finally:            self.mutator.exit_mutable_scope(self)

MutableScope是继承了Mutable对象,也有一个key,他是比操作更高层次的抽象。类似的概念有子图,子模块,可以看作一系列操作的集合。

  • MutableScope可以更好的帮助Mutator做决策,将其看作略高层次的抽象。
  • 如果没有标注为mutable scope, 那么搜索空间将会展开为一个列表。如果一个模块是在mutable scope中定义,那么将被视为sub-search-space, 子搜索空间,并且这些mutable scope之间也可以相互嵌套。
  • Mutator有两种方法使用mutable scope:
  • 一种是初始化的时候,通过树的形式进行初始化搜索空间。
  • 另一种是实现' enter\_mutable\_scope '和' exit\_mutable\_scope '两个方法
  • Mutable Scope也是一种Mutable对象,只不过其比较特殊,包含的内容不是普通的操作opration, 而是Mutable对象。Mutable Scope也会在搜索空间中被枚举出来,但是不应该出现在选项的字典中。

3. LayerChoice

LayerChoice类的核心功能是从候选操作中挑选一个,将该操作施加到输入得到输出结果。在特殊情况下,可以选择zero 或者选择多个操作。Layer Choice不允许嵌套。主要有以下几个参数:

  • op\_candidates: 候选操作,可以是nn.Module列表或字典
  • reduction: 可以从mean, concat, sum, none几种选择。
  • return\_mask: 决定返回结果是否包含mask
  • key:input\_choice的key
class LayerChoice(Mutable):    def __init__(self, op_candidates, reduction="sum", return_mask=False, key=None):        super().__init__(key=key)        self.names = []        if isinstance(op_candidates, OrderedDict):            for name, module in op_candidates.items():                assert name not in ["length", "reduction", "return_mask", "_key", "key", "names"], \                    "Please don't use a reserved name '{}' for your module.".format(name)                self.add_module(name, module) # 添加模块进来                self.names.append(name)        elif isinstance(op_candidates, list):             for i, module in enumerate(op_candidates):                self.add_module(str(i), module)                self.names.append(str(i)) # list的画就手动添加name        else:            raise TypeError("Unsupported op_candidates type: {}".format(type(op_candidates)))        self.reduction = reduction        self.return_mask = return_mask # 是否同时return mask 和 tensor

可以看出LayerChoice就是一个类似于列表的类,其中包含了候选的操作,可以通过add\_module的方式将候选操作添加到LayerChoice这个类中。

def forward(self, *args, **kwargs):    """    Returns    -------    tuple of tensors        Output and selection mask. If ``return_mask`` is ``False``, only output is returned.    """    out, mask = self.mutator.on_forward_layer_choice(self, *args, **kwargs)    if self.return_mask:        return out, mask    return out

前向传播的时候,是mutator的on\_forward\_layer\_choice函数进行控制具体的操作,return\_mask控制是否同时输出mask和tensor。

一个调用的例子:

self.op_choice = LayerChoice(OrderedDict([    ("conv3x3", nn.Conv2d(3, 16, 128)),    ("conv5x5", nn.Conv2d(5, 16, 128)),    ("conv7x7", nn.Conv2d(7, 16, 128))]))

4. InputChoice

InputChoice是用来解决网络层与层之间连接的问题,有以下几个参数:

  • n\_candidates: 是一个数,选择多少个作为input
  • choose\_from: 是一个装满key的列表,都是过去已经生成的mutable对象的key。也可以是InputChoice.NO\_KEY代表
  • n\_chosen: 选择的输入的个数,如果不设置,那就可以选择任何数量的组合。
  • reduction: 规约方式有mean, concat, sum, none。
  • return\_mask&key同上。

综合来说,Input Choice就是从choose\_from对应key中选择n\_chosen个输入, 其中n\_candidates决定了forward函数中,候选选项中选择的个数。

举个例子:

class Cell(MutableScope):    passclass Net(nn.Module):    def __init__(self):        self.cell1 = Cell("cell1")        self.cell2 = Cell("cell2")        self.op = LayerChoice([conv3x3(), conv5x5()], key="op")        self.input_choice = InputChoice(choose_from=["cell1", "cell2", "op", InputChoice.NO_KEY])    def forward(self, x):        x1 = max_pooling(self.cell1(x))        x2 = self.cell2(x)        x3 = self.op(x)        x4 = torch.zeros_like(x)        return self.input_choice([x1, x2, x3, x4])

InputChoice的源码实现:

class InputChoice(Mutable):    NO_KEY = ""    def __init__(self, n_candidates=None, choose_from=None, n_chosen=None,                 reduction="sum", return_mask=False, key=None):        super().__init__(key=key)        # precondition check        assert n_candidates is not None or choose_from is not None, "At least one of `n_candidates` and `choose_from`" \                                                                    "must be not None."        if choose_from is not None and n_candidates is None:            n_candidates = len(choose_from) # choose_from 不为None,n_candidate就是其长度        elif choose_from is None and n_candidates is not None:            choose_from = [self.NO_KEY] * n_candidates # 将空白字符串作为key        assert n_candidates == len(choose_from), "Number of candidates must be equal to the length of `choose_from`."        assert n_candidates > 0, "Number of candidates must be greater than 0."        assert n_chosen is None or 0 <= n_chosen <= n_candidates, "Expected selected number must be None or no more " \                                                                  "than number of candidates."        self.n_candidates = n_candidates        self.choose_from = choose_from.copy()        self.n_chosen = n_chosen        self.reduction = reduction        self.return_mask = return_mask    def forward(self, optional_inputs):        # optional_inputs是一个列表,里边是所有可选的输入张量        optional_input_list = optional_inputs                if isinstance(optional_inputs, dict):            optional_input_list = [optional_inputs[tag] for tag in self.choose_from]                    assert isinstance(optional_input_list, list), \            "Optional input list must be a list, not a {}.".format(type(optional_input_list))                    assert len(optional_inputs) == self.n_candidates, \            "Length of the input list must be equal to number of candidates."                    out, mask = self.mutator.on_forward_input_choice(self, optional_input_list)        if self.return_mask:            return out, mask        return out

前向传播的选择还是通过调用mutator的on\_forward\_input\_choice函数来决定选择哪条路径连接。

本文主要介绍了nni中搜索空间指定最核心的几个类,通过使用这些类就可以做到构建自己的搜索空间。最近nni更新了2.1版本retiarii等新的功能特性, 允许用户以高度的灵活性表达各种搜索空间,重用许多前沿搜索算法,更加易用,准备踩坑。

- END -

推荐阅读

更多嵌入式AI技术干货请关注嵌入式AI专栏。
推荐阅读
关注数
18790
内容数
1342
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息