引言
迁移学习(Transfer Learning)是属于深度学习的一个子研究领域,该研究领域的目标在于利用数据、任务、或模型之间的相似性,将在旧领域学习过的知识,迁移应用于新领域中。迁移学习吸引了很多研究者投身其中,因为它能够很好的解决深度学习中的以下几个问题:
一些研究领域只有少量标注数据,且数据标注成本较高,不足以训练一个足够鲁棒的神经网络
大规模神经网络的训练依赖于大量的计算资源,这对于一般用户而言难以实现
应对于普适化需求的模型,在特定应用上表现不尽如人意
为了让开发者更便捷地应用迁移学习,百度PaddlePaddle开源了预训练模型管理工具PaddleHub。开发者用使用仅仅十余行的代码,就能完成迁移学习。本文将为读者全面介绍PaddleHub并介绍其应用方法。
项目地址: https://github.com/PaddlePaddle/PaddleHub
PaddleHub介绍
PaddleHub是基于PaddlePaddle开发的预训练模型管理工具,可以借助预训练模型更便捷地开展迁移学习工作,旨在让PaddlePaddle生态下的开发者更便捷体验到大规模预训练模型的价值。
PaddleHub目前的预训练模型覆盖了图像分类、目标检测、词法分析、Transformer、情感分析五大类别。 未来会持续开放更多类型的深度学习模型,如语言模型、视频分类、图像生成等预训练模型。PaddleHub的功能全景如图1所示。
图1 PaddleHub功能全景
PaddleHub主要包括两个功能:命令行工具和Fine-tune API。
命令行工具
PaddleHub借鉴了Anaconda和PIP等软件包管理的理念,开发了命令行工具,可以方便快捷的完成模型的搜索、下载、安装、预测等功能,对应的关键的命令分别是search,download,install,run等。我们以run命令为例,介绍如何通过命令行工具进行预测。
Run命令用于执行Module的预测,这里分别举一个NLP和CV的例子。
对于NLP任务:输入数据通过—input\_text指定。以百度LAC模型(中文词法分析)为例,可以通过以下命令实现单行文本分析。
\# 单文本预测
$ hub run lac –input\_text “今天是个好日子”
对于CV任务:
输入数据通过—input\_path指定。以SSD模型(单阶段目标检测)为例子,可以通过以下命令实现单张图片的预测
\# 使用SSD检测模型对图片进行目标检测,第一条命令是下载图片,第二条命令是执行预测,用户也可以自
\# 己准备图片
$ wget –no-check-certificate https://paddlehub.bj.bcebos.c...\_img\_bird.jpg
$ hub run ssd\_mobilenet\_v1\_pascal –input\_path test\_img\_bird.jpg
更多的命令用法,请读者参考文首的Github项目链接。
Fine-tune API:
PaddleHub提供了基于PaddlePaddle实现的Fine-tune API, 重点针对大规模预训练模型的Fine-tune任务做了高阶的抽象,让预训练模型能更好服务于用户特定场景的应用。通过大规模预训练模型结合Fine-tune,可以在更短的时间完成模型的收敛,同时具备更好的泛化能力。PaddleHub API的全景如图2所示。
图2 PaddleHub Fine-tune API全景
Fine-tune :对一个Task进行Fine-tune,并且定期进行验证集评估。在Fine-tune的过程中,接口会定期的保存checkpoint(模型和运行数据),当运行被中断时,通过RunConfig指定上一次运行的checkpoint目录,可以直接从上一次运行的最后一次评估中恢复状态继续运行。
迁移任务Task:在PaddleHub中,Task代表了一个Fine-tune的任务。任务中包含了执行该任务相关的program以及和任务相关的一些度量指标(如分类准确率accuracy、precision、 recall、 F1-score等)、模型损失等。
运行配置 RunConfig:在PaddleHub中,RunConfig代表了在对Task进行Fine-tune时的运行配置。包括运行的epoch次数、batch的大小、是否使用GPU训练等。
优化策略Strategy:在PaddleHub中,Strategy类封装了一系列适用于迁移学习的Fine-tune策略。Strategy包含了对预训练参数使用什么学习率变化策略,使用哪种类型的优化器,使用什么类型的正则化等。
预训练模型Module :Module代表了一个可执行的模型。这里的可执行指的是,Module可以直接通过命令行hub run ${MODULE\_NAME}执行预测,或者通过context接口获取上下文后进行Fine-tune。在生成一个Module时,支持通过名称、url或者路径创建Module。
数据预处理Reader :PaddleHub的数据预处理模块Reader对常见的NLP和CV任务进行了抽象。
数据集Dataset:PaddleHub提供多种NLP任务和CV任务的数据集,可供用户载,用户也可以在自定义数据集上完成Fine-tune。
基于以上介绍的PaddleHub两大功能,用户可以实现: 无需编写代码,一键使用预训练模型进行预测; 通过hub download命令,快速地获取PaddlePaddle生态下的所有预训练模型; 借助PaddleHub Fine-tune API,使用少量代码完成迁移学习。
以下将从实战角度,教你如何使用PaddleHub进行图像分类迁移。
PaddleHub实战
1. 安装
PaddleHub是基于PaddlePaddle的预训练模型管理框架,使用PaddleHub前需要先安装PaddlePaddle,如果你本地已经安装了CPU或者GPU版本的PaddlePaddle,那么可以跳过以下安装步骤。
$ pip install paddlepaddle #CPU安装命令
或者
$ pip install paddlepaddle-gpu # GPU安装
推荐使用大于1.4.0版本的PaddlePaddle。 通过以下命令来安装PaddleHub $ pip install paddlehub
2. 选择合适的模型
首先导入必要的python包
\# -*- coding: utf8 -*-
import paddlehub as hubimport paddle.fluid as fluid
接下来我们要在PaddleHub中选择合适的预训练模型来Fine-tune,由于猫狗分类是一个图像分类任务,因此我们使用经典的ResNet-50作为预训练模型。PaddleHub提供了丰富的图像分类预训练模型,包括了最新的神经网络架构搜索类的PNASNet,我们推荐你尝试不同的预训练模型来获得更好的性能。
module\_map = { “resnet50”: “resnet\_v2\_50\_imagenet”, “resnet101”: “resnet\_v2\_101\_imagenet”, “resnet152”: “resnet\_v2\_152\_imagenet”, “mobilenet”: “mobilenet\_v2\_imagenet”, “nasnet”: “nasnet\_imagenet”, “pnasnet”: “pnasnet\_imagenet” }
module\_name = module\_map[“resnet50”] module = hub.Module(name = module\_name)
3. 数据准备
接着需要加载图片数据集。为了快速体验,我们直接加载PaddleHub提供的猫狗分类数据集,如果想要使用自定义的数据进行体验,请查看自定义数据。
\# 直接用PaddleHub提供的数据集
dataset = hub.dataset.DogCat()
4.自定义数据
本节说明如何组装自定义的数据,如果想使用猫狗数据集进行体验,可以直接跳过本节。 使用自定义数据时,我们需要自己切分数据集,将数据集且分为训练集、验证集和测试集。 同时使用三个文本文件来记录对应的图片路径和标签,此外还需要一个标签文件用于记录标签的名称。 ├─data: 数据目录 ├─train\_list.txt:训练集数据列表 ├─test\_list.txt:测试集数据列表 ├─validate\_list.txt:验证集数据列表 ├─label\_list.txt:标签列表 └─…… 训练/验证/测试集的数据列表文件的格式如下 图片1路径 图片1标签 图片2路径 图片2标签 … 标签列表文件的格式如下 分类1名称 分类2名称 … 使用如下的方式进行加载数据,生成数据集对象
注意事项:
- num\_labels要填写实际的分类数量,如猫狗分类该字段值为2,food101该字段值为101,下文以2为例子
- base\_path为数据集实际路径,需要填写全路径,下文以/test/data为例子
训练/验证/测试集的数据列表文件中的图片路径需要相对于base\_path的相对路径,例如图片的实际位置为/test/data/dog/dog1.jpg,base\_path为/test/data,则文件中填写的路径应该为dog/dog1.jpg
\# 使用本地数据集
dataset = MyDataSet()
class MyDataSet(hub.dataset.basecvdataset.ImageClassificationDataset): def \_\_init(self): self.base\_path = “/test/data” self.train\_list\_file = “train\_list.txt” self.test\_list\_file = “test\_list.txt” self.validate\_list\_file = “validate\_list.txt” self.label\_list\_file = “label\_list.txt” self.label\_list = None self.num\_labels = 2
5.生成Reader
接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。 当我们生成一个图像分类的reader时,需要指定输入图片的大小
data\_reader = hub.reader.ImageClassificationReader( image\_width=module.get\_expected\_image\_width(), image\_height=module.get\_expected\_image\_height(), images\_mean=module.get\_pretrained\_images\_mean(), images\_std=module.get\_pretrained\_images\_std(), dataset=dataset)
6.组建Fine-tune Task
有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。
由于猫狗分类是一个二分类的任务,而我们下载的cv\_classifer\_module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:
- 获取cv\_classifer\_module的上下文环境,包括输入和输出的变量,以及Paddle Program;
- 从输出变量中找到特征图提取层feature\_map;
- 在feature\_map后面接入一个全连接层,生成Task; input\_dict, output\_dict, program = module.context(trainable=True)
img = input\_dict[“image”] feature\_map = output\_dict[“feature\_map”]
task = hub.create\_img\_cls\_task( feature=feature\_map, num\_classes=dataset.num\_labels)
feed\_list = [img.name, task.variable(“label”).name]
7.选择运行时配置
在进行Fine-tune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:
use\_cuda:设置为False表示使用CPU进行训练。如果本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议你将这个选项设置为True;
epoch:要求Fine-tune的任务只遍历1次训练集;
batch\_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch\_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch\_size可能导致内存不足而无法训练,因此选择一个合适的batch\_size是很重要的一步;
log\_interval:每隔10 step打印一次训练日志;
eval\_interval:每隔50 step在验证集上进行一次性能评估;
checkpoint\_dir:将训练的参数和数据保存到cv\_Fine-tune\_turtorial\_demo目录中;
strategy:使用DefaultFine-tuneStrategy策略进行Fine-tune;
更多运行配置,请查看文首的Github项目链接。
config = hub.RunConfig( use\_cuda=False, num\_epoch=1, checkpoint\_dir=”cv\_finetune\_turtorial\_demo”, batch\_size=32, log\_interval=10, eval\_interval=50, strategy=hub.finetune.strategy.DefaultFinetuneStrategy())
8.开始Fine-tune
我们选择Fine-tune\_and\_eval接口来进行模型训练,这个接口在Fine-tune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。
hub.finetune\_and\_eval( task, feed\_list=feed\_list, data\_reader=data\_reader, config=config)
9.查看训练过程的效果
训练过程中的性能数据会被记录到本地,我们可以通过visualdl来可视化这些数据。 我们在shell中输入以下命令来启动visualdl,其中${HOST\_IP}为本机IP,需要用户自行指定
$ visualdl —logdir ./ cv\_finetune\_turtorial\_demo/vdllog —host ${HOST\_IP} —port 8989
启动服务后,我们使用浏览器访问${HOST\_IP}:8989,可以看到训练以及预测的loss曲线和accuracy曲线,如下图所示。
10.使用模型进行预测
当Fine-tune完成后,我们使用模型来进行预测,整个预测流程大致可以分为以下几步:
- 构建网络
- 生成预测数据的Reader
- 切换到预测的Program
- 加载预训练好的参数
- 运行Program进行预测
通过以下命令来获取测试的图片(适用于猫狗分类的数据集)
$ wget —no-check-certificate [https://PaddleHub.bj.bcebos.com/resources/test\_img\_cat.jpg](https://paddlehub.bj.bcebos.com/resources/test_img_cat.jpg) $ wget —no-check-certificate https://PaddleHub.bj.bcebos.com/resources/test\_img\_dog.jpg
注意:其他数据集所用的测试图片请自行准备 完整预测代码如下:
import os import numpy as np import paddle.fluid as fluid import paddlehub as hub
\# Step 1: build Program
module\_map = { “resnet50”: “resnet\_v2\_50\_imagenet”, “resnet101”: “resnet\_v2\_101\_imagenet”, “resnet152”: “resnet\_v2\_152\_imagenet”, “mobilenet”: “mobilenet\_v2\_imagenet”, “nasnet”: “nasnet\_imagenet”, “pnasnet”: “pnasnet\_imagenet” }
module\_name = module\_map[“resnet50”] module = hub.Module(name = module\_name) input\_dict, output\_dict, program = module.context(trainable=False) img = input\_dict[“image”] feature\_map = output\_dict[“feature\_map”]
dataset = hub.dataset.DogCat() task = hub.create\_img\_cls\_task( feature=feature\_map, num\_classes=dataset.num\_labels) feed\_list = [img.name]
\# Step 2: create data reader
data = [ “test\_img\_dog.jpg”, “test\_img\_cat.jpg” ]
data\_reader = hub.reader.ImageClassificationReader( image\_width=module.get\_expected\_image\_width(), image\_height=module.get\_expected\_image\_height(), images\_mean=module.get\_pretrained\_images\_mean(), images\_std=module.get\_pretrained\_images\_std(), dataset=None)
predict\_reader = data\_reader.data\_generator( phase=”predict”, batch\_size=1, data=data)
label\_dict = dataset.label\_dict()
\# Step 3: switch to inference program
with fluid.program\_guard(task.inference\_program()):
# Step 4: load pretrained parameters
place = fluid.CPUPlace()
exe = fluid.Executor(place)
pretrained_model_dir = os.path.join("cv_finetune_turtorial_demo", "best_model")
fluid.io.load_persistables(exe, pretrained_model_dir)
feeder = fluid.DataFeeder(feed_list=feed_list, place=place)
# Step 5: predict
for index, batch in enumerate(predict_reader()):
result, = exe.run(
feed=feeder.feed(batch), fetch_list=[task.variable('probs')])
predict_result = np.argsort(result[0])[::-1][0]
print("input %i is %s, and the predict result is %s" %
(index+1, data[index], label_dict[predict_result]))
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。