新闻  |   论坛  |   博客  |   在线研讨会
征程 6|部署模型尾部 conv 输出 type/layout/scale 解读
地平线开发者 | 2025-04-20 11:01:16    阅读:24   发布文章

1. 引言

在算法模型部署阶段,大家可能会遇到这三个问题:

    为了保证精度,模型尾部 conv/linear 需要是 int32 输出

    为了适配后处理代码,模型尾部 conv/linear 输出 layout 有时是 NCHW 的,有时是 NHWC 的

    为什么 conv/linear 输出的 scale 会是 1?这符合预期吗?

本文使用 pytorch 框架,以 conv 为例,介绍如何同时满足 conv int32 + NCHW/NHWC 这两种情况。另外,专开一个章节介绍 scale 为 1 的原因。


2. 输出类型/layout 解读

2.1 Conv int32 + NCHW

从一个基础示例看 conv 输出类型与 layout:

class SmallModel(nn.Module):
   def __init__(self):
       super(SmallModel, self).__init__()
       self.quant = QuantStub()
       self.dequant = DeQuantStub()
       self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
       self.batchnorm = nn.BatchNorm2d(256)
       self.relu = nn.ReLU()
       self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)
   
   def forward(self, x):
       x = self.quant(x)
       x = self.conv1(x)
       x = self.batchnorm(x)
       x = self.relu(x)
       x = self.conv2(x)
       x = self.dequant(x)
       return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

进行工具链量化转换后,输出 conv 情况如下图:

Description


BPU conv 输出默认是 NHWC 的,由于 pytorch 框架输出是 NCHW 的,所以工具会在模型尾部自动加一个 transpose 来保证 layout 一致。此时,模型尾部 conv 输出也是 int32 的,符合 conv int32 + NCHW 预期。

2.2 Conv int32 + NHWC

错误示范

class SmallModel(nn.Module):
   def __init__(self):
       super(SmallModel, self).__init__()
       self.quant = QuantStub()
       self.dequant = DeQuantStub()
       self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
       self.batchnorm = nn.BatchNorm2d(256)
       self.relu = nn.ReLU()
       self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)

   def forward(self, x):
       x = self.quant(x)
       x = self.conv1(x)
       x = self.batchnorm(x)
       x = self.relu(x)
       x = self.conv2(x)
       x = x.permute(0,2,3,1)
       x = self.dequant(x)
       return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

进行工具链量化转换后,输出 conv 情况如下图:

Description

尾部 conv 输出 layout 符合预期。

尾部 conv 输出 int16,不符合预期。原因是:在模型中,只有 conv 与 dequant 直接相连,conv 才会是 int32。

怎么实现 conv int32 + NHWC 输出呢?

正确示范

class SmallModel(nn.Module):
   def __init__(self):
       super(SmallModel, self).__init__()
       self.quant = QuantStub()
       self.dequant = DeQuantStub()
       self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
       self.batchnorm = nn.BatchNorm2d(256)
       self.relu = nn.ReLU()
       self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)

   def forward(self, x):
       x = self.quant(x)
       x = self.conv1(x)
       x = self.batchnorm(x)
       x = self.relu(x)
       x = self.conv2(x)
       x = self.dequant(x)
       x = x.permute(0,2,3,1)
       return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

在 dequant 后面加 permute 即可实现 conv int32 + NHWC 输出。


Description



3. 什么时候 scale 为 1

在第 2 节中的示例,正常走工具链搭建 QAT 的流程,一般情况下,都不会出现 scale 为 1 的情况,如下图示例:箭头指向的位置都是 scale 的数值。

Description


什么时候 scale 会是 1 呢?首先要来了解 scale=1 是在什么时候生成的:在 prepare 初始化模型的时候,scale 为 1,举个例子,看 scale 的变化

calib_model = prepare(model.eval(), example_input, calibration_8bit_weight_16bit_act_qconfig_setter)
print("calib_model:", calib_model)        # scale均为1

calib_model.eval()
set_fake_quantize(calib_model, FakeQuantState.CALIBRATION)
print("calib_model:", calib_model)        # scale均为1
calib_model(example_input)

calib_model.eval()                            
print("calib_model:", calib_model)        # scale不为1
set_fake_quantize(calib_model, FakeQuantState.VALIDATION)
calib_out = calib_model(example_input)
print("calib_model:", calib_model)        # scale不为1

qat_bc = export(calib_model, example_input)

根据上述代码,沿着这个线索来分析 scale 为 1 的可能原因。

没校准,直接 export 导出 bc 文件

在进行模型编译时,采用 prepare 后加载权重的方式,若权重中的 scale 为 1,则编译时 scale 也为 1

在进行模型编译时,采用 prepare 后加载权重的方式,加载权重时,部分位置的权重没加载进去,这部分 scale 就会是 1

scale 为 1 一定就是错的吗?其实不一定,只能说大部分是错的。判断 scale=1 正确与否,跑一下模型推理,看结果是否正确即可~

4. 典型问题

问题描述:qat 模型精度正常,export 后的 qat.bc 精度不正常,且在 convert+compile 后发现,部分 conv 输出 scale 为 1,量化类型为 int16。

Description

最终原因:训练 qat 结束保存权重时,网络某输出结构为:

        x = self.conv2(x)
       x = self.dequant(x)  

为了适配板端部署 layout 要求,直接修改该输出结构为:

        x = self.conv2(x)
       x = x.permute(0,2,3,1)
       x = self.dequant(x)  

并加载了之前训练的权重,且未关注 miss key/unexpected key,此时会出现部分 conv 输出 scale 为 1,量化类型为 int16 的问题。


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客