内容导读从度量学习到深度度量学习,本文介绍了一个 PyTorch 中的程序包,它可以极大简化使用深度度量学习的难度。
本文首发自微信公众号「PyTorch 开发者社区」
度量学习(Metric Learning)是机器学习过程中经常用到的一种方法,它可以借助一系列观测,构造出对应的度量函数,从而学习数据间的距离或差异,有效地描述样本之间的相似度。
CUB200 数据集样本示例,常被用作度量学习的 benchmark
这个度量函数对于相似度高的观测值,会返回一个小的距离值;对于差异巨大的观测值,则会返回一个大的距离值。
当样本量不大时,度量学习在处理分类任务的准确率和高效率上,展现出了显著优势。
DML:为多类别、小样本分类而生
然而,如果要处理的分类任务十分复杂,具有多类别、小样本等特征时,结合深度学习和度量学习的深度度量学习((Deep Metric Learning,简称 DML)),才是真正的王者。
深度度量学习又被称为距离度量学习(Distance Metric Learning)。相较于度量学习,深度度量学习可以对输入特征做非线性映射。
通过训练一个基于 CNN 的非线性特征提取模块或编码器,深度度量学习可以将提取的图像特征(Embedding)嵌入到近邻位置,同时借助欧氏距离、cosine 等距离度量方法,将不同的图像特征区分开来。
接下来,深度度量学习再结合 k 最近邻、支持向量机等分类算法,就可以在不考虑类别数量的基础上,利用提取的图像特征,来完成目标识别任务了。
import numpy as np
# 随机定义A, B 两个向量
A = np.random.randn(10)
B = np.random.randn(10)
# 欧几里得距离(Euclidean distance)
dist = np.square(np.sum(A - B)**2)
# 曼哈顿距离(Manhattan distance)
dist = np.sum(np.abs(A - B))
# 切比雪夫距离(Chebyshev distance)
dist = np.max(np.abs(A - B))
# cosine距离
similarity = (np.sum(A * B))/(np.linalg.norm(A)) / (np.linalg.norm(A))
深度度量学习中的常用距离函数
深度度量学习在 CV 领域的一些极端分类任务(类别众多、样本量不足)中表现优异,应用遍及人脸识别、行人重识别、图像检索、目标跟踪、特征匹配等场景。
以往要在程序中使用深度度量学习,主要依赖工程师从零到一写代码,不光耗时久还容易出 bug。现在则可以依赖一个封装了多个常用模块的开源库,直接进行调用,省时省力。
PML:让深度度量学习易如反掌
pytorch-metric-learning(PML)是一个开源库,可以让各种繁琐复杂的深度度量学习算法,变得更加简单友好。
pytorch-metric-learning 具有两大特点
1、易于使用
只需添加 2 行代码,就可以在程序中使用度量学习;调用单个函数,就可以挖掘 pairs 和 triplets。
2、高度灵活
融合了 loss、miner、trainer 等多个模块,可以在已有代码中实现各种算法组合。
PML 包括 9 个模块,每个模块既可以单独使用,也可以组合成一个完整的训练/测试 workflow
pytorch-metric-learning 中的 9 大模块
1、Loss:可以应用的各种损失函数
from pytorch_metric_learning.distances import CosineSimilarity
from pytorch_metric_learning.reducers import ThresholdReducer
from pytorch_metric_learning.regularizers import LpRegularizer
from pytorch_metric_learning import losses
loss_func = losses.TripletMarginLoss(distance = CosineSimilarity(),
reducer = ThresholdReducer(high=0.3),
embedding_regularizer = LpRegularizer())
自定义损失函数 TripletMarginLoss 代码示例
2、Distance: 包括计算 pairwise distance 或输入 embedding 之间相似性的各种类别
3、Reducer:从几个损失值变为单个损失值
4、Regularizer:对权重和嵌入向量进行正则化
5、Miner:PML 提供两种类型的挖掘函数:子集批处理 miner 及 tuple miner
from pytorch_metric_learning import miners, losses
miner = miners.MultiSimilarityMiner()
loss_func = losses.TripletMarginLoss()
# your training loop
for i, (data, labels) in enumerate(dataloader):
optimizer.zero_grad()
embeddings = model(data)
hard_pairs = miner(embeddings, labels)
loss = loss_func(embeddings, labels, hard_pairs)
loss.backward()
optimizer.step()
用 Tripletmurginloss 损失函数添加挖掘功能
6、Sampler:_torch.utils.data.Sampler_ 类的扩展,决定样本的 batch 的组成形态
7、Trainer:提供对度量学习算法的访问,如数据增强、附加网络等
8、Tester:输入模型和数据集,找到基于最近邻的准确度指标(使用该模块需要安装 faiss 安装包)
9、Util:
- _AccuracyCalculator_:给定一个 query 和推理嵌入向量(reference embedding),计算数个准确度指标
- _Inference model_:_utils.inference_ 包含用于在 batch 或一组 pair 中,找到匹配对(matching pairs )的类
- _Logging Preset_:提供日志数据 hook,模型训练、验证和存储期间的提前停止日志。
损失函数可以自定义使用 Distance、Reducer 及 Regularizer 三个模块
PML 上手实践
PyTorch 版本要求
pytorch-metric-learning v0.9.90 版本及以上:torch ≥ 1.6
pytorch-metric-learning v0.9.90 版本以下:没有版本要求,但是测试版本 torch ≥ 1.2
Pip
pip install pytorch-metric-learning
获得最新版本
pip install pytorch-metric-learning --pre
在 Windows 上安装
pip install torch===1.6.0 torchvision===0.7.0 -f https://download.pytorch.org/whl/torch_stable.html
pip install pytorch-metric-learning
增加评估和日志功能,需要安装 faiss-gpu 的非官方 pypi 版本
pip install pytorch-metric-learning[with-hooks]
或 faiss-CPU
pip install pytorch-metric-learning[with-hooks-cpu]
Conda
conda install pytorch-metric-learning -c metric-learning -c pytorch
GitHub 地址:
https://github.com/KevinMusgr...
Google Colab:
https://github.com/KevinMusgr...
相关论文:
https://arxiv.org/pdf/2008.09...
参考:
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。