该教程以图像分类模型MobileNetV1为例,说明如何快速使用PaddleSlim的卷积通道剪裁接口。 该示例包含以下步骤:
- 导入依赖
- 构建模型和数据集
- 进行预训练
- 剪裁
- 训练剪裁后的模型
以下章节依次次介绍每个步骤的内容。
请确认已正确安装Paddle,版本依赖关系可见PaddleSlim Rep主页。然后按以下方式导入Paddle和PaddleSlim:
import paddle
import paddle.vision.models as models
from paddle.static import InputSpec as Input
from paddle.vision.datasets import Cifar10
import paddle.vision.transforms as T
from paddleslim.dygraph import L1NormFilterPruner
该章节构造一个用于对CIFAR10数据进行分类的分类模型,选用MobileNetV1
,并将输入大小设置为[3, 32, 32]
,输出类别数为10。
为了方便展示示例,我们使用Paddle提供的预定义分类模型和高层API,执行以下代码构建分类模型:
net = models.mobilenet_v1(pretrained=False, scale=1.0, num_classes=10)
inputs = [Input([None, 3, 32, 32], 'float32', name='image')]
labels = [Input([None, 1], 'int64', name='label')]
optimizer = paddle.optimizer.Momentum(
learning_rate=0.1,
parameters=net.parameters())
model = paddle.Model(net, inputs, labels)
model.prepare(
optimizer,
paddle.nn.CrossEntropyLoss(),
paddle.metric.Accuracy(topk=(1, 5)))
transform = T.Compose([
T.Transpose(),
T.Normalize([127.5], [127.5])
])
val_dataset = Cifar10(mode='test', transform=transform)
train_dataset = Cifar10(mode='train', transform=transform)
对模型进行预训练,为之后的裁剪做准备。 执行以下代码对模型进行预训练
model.fit(train_dataset, epochs=2, batch_size=128, verbose=1)
FLOPs = paddle.flops(net, input_size=[1, 3, 32, 32], print_detail=True)
对网络模型两个不同的网络层按照参数名分别进行比例为50%,60%的裁剪。 代码如下所示:
pruner = L1NormFilterPruner(net, [1, 3, 32, 32], opt=optimizer)
pruner.prune_vars({'conv2d_22.w_0':0.5, 'conv2d_20.w_0':0.6}, axis=0)
以上操作会按照网络结构中不同网路层的冗余程度对网络层进行不同程度的裁剪并修改网络模型结构。
注意: 需要将optimizer
传入pruner
中,这是为了保证optimizer
中的参数可以被剪裁到。例如:momentum
中的velocity
。但是如果在pruner
后定义optimizer
,则无需传入了,因为初始化optimizer
时会指定parameters=net.parameters()
。
FLOPs = paddle.flops(net, input_size=[1, 3, 32, 32], print_detail=True)
对模型进行裁剪会导致模型精度有一定程度下降。 以下代码评估裁剪后模型的精度:
model.evaluate(val_dataset, batch_size=128, verbose=1)
对模型进行finetune会有助于模型恢复原有精度。
以下代码对裁剪过后的模型进行评估后执行了一个epoch
的微调,再对微调过后的模型重新进行评估:
model.fit(train_dataset, epochs=1, batch_size=128, verbose=1)
model.evaluate(val_dataset, batch_size=128, verbose=1)