欢迎访问我的GitHub
这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos
关于人脸识别
- 本文是《JavaCV人脸识别三部曲》的第一篇,在《JavaCV的摄像头实战之八:人脸检测》一文中,实现了检测人脸并用方框标注出来,但仅框出人脸作用不大,最好是识别出此人的身份,这样就能做很多事情了,例如签到、告警等,这就是接下来咱们要挑战的人脸识别
- 人脸识别涉及到两个步骤:训练和识别,接下来简单说明解释一下
- 先看什么是训练,如下图,用两位天王的六张照片来训练,一共两个类别,训练完成后得到模型文件faceRecognizer.xml:
- 训练成功后, 我们拿一张新的照片给模型去识别,得到的结果是训练时的类别,如此识别完成,我们已确定了新照片的身份:
下面用流程图将训练和识别说得更详细一些:
关于《JavaCV人脸识别三部曲》
《JavaCV人脸识别三部曲》一共三篇文章,内容如下:
- 《视频中的人脸保存为图片》:本篇介绍如何通过JavaCV将摄像头中的每个人脸都检测出来,并且把每个人脸保存为图片,这种方法可以让我们快速获取大量人脸照片用于训练
- 《训练》:讲述如何用分类好的照片去训练模型
- 《识别和预览》:拿到训练好的模型,去识别视频中每一帧的人脸,把结果标注到图片上预览
整个三部曲也是《JavaCV的摄像头实战》系列的一部分,分别是《JavaCV的摄像头实战》系列的的第九、第十、第十一篇
本篇概览
- 本篇要做的事情就是把训练用的照片准备好
- 您可能会疑惑:我自己去找一些照片不就行了吗?去网上搜、去相册搜、去拍照不都可以吗?没错,只要找到您想识别的人脸即可,而本篇介绍的是另一种方法:借助摄像头检测人脸,然后将人脸大小的照片保存在硬盘,用这些照片来训练,实测多张照片训练处的模型在检测新照片时效果更好
- 具体做法如下:
- 写个程序,对摄像头的照片做人脸检测,每个检测到的人脸,都作一张图片保存,注意不是摄像头视频帧的完整图片,而是检测出每张人脸,把这个人脸的矩形作为图片保存,而且保存的是灰度图片,不是彩色图片(训练和检测只需要灰度图片)
- 然后找个没人的地方运行程序,一个人对着摄像头,开始......搔首弄姿,各种光线明暗、各种角度、各种表情都用上,作为图片保存
- 用这些图片训练出的模型,由于覆盖了各种亮度、角度、表情,最终的识别效果会更好
- 接下来我们就来写这段程序吧
源码下载
- 《JavaCV的摄像头实战》的完整源码可在GitHub下载到,地址和链接信息如下表所示(https://github.com/zq2599/blog_demos):
名称 | 链接 | 备注 |
---|---|---|
项目主页 | https://github.com/zq2599/blog_demos | 该项目在GitHub上的主页 |
git仓库地址(https) | https://github.com/zq2599/blog_demos.git | 该项目源码的仓库地址,https协议 |
git仓库地址(ssh) | git@github.com:zq2599/blog_demos.git | 该项目源码的仓库地址,ssh协议 |
- 这个git项目中有多个文件夹,本篇的源码在javacv-tutorials文件夹下,如下图红框所示:
javacv-tutorials里面有多个子工程,《JavaCV的摄像头实战》系列的代码在simple-grab-push工程下:
编码:检测服务
先定义一个检测有关的接口DetectService.java,如下,主要是定义了三个方法init、convert、releaseOutputResource,其中init用于初始化检测服务,convert负责处理单个帧(本篇就是检测出人脸、把人脸照片保存在硬盘),releaseOutputResource在结束的时候被执行,用于释放资源,另外还有个静态方法buildGrayImage,很简单,生成灰度图片对应的Mat对象:
package com.bolingcavalry.grabpush.extend; import com.bolingcavalry.grabpush.Constants; import org.bytedeco.javacv.Frame; import org.bytedeco.javacv.OpenCVFrameConverter; import org.bytedeco.opencv.opencv_core.*; import org.bytedeco.opencv.opencv_objdetect.CascadeClassifier; import static org.bytedeco.opencv.global.opencv_core.CV_8UC1; import static org.bytedeco.opencv.global.opencv_imgcodecs.imwrite; import static org.bytedeco.opencv.global.opencv_imgproc.*; /** * @author willzhao * @version 1.0 * @description 检测工具的通用接口 * @date 2021/12/5 10:57 */ public interface DetectService { /** * 根据传入的MAT构造相同尺寸的MAT,存放灰度图片用于以后的检测 * @param src 原始图片的MAT对象 * @return 相同尺寸的灰度图片的MAT对象 */ static Mat buildGrayImage(Mat src) { return new Mat(src.rows(), src.cols(), CV_8UC1); } /** * 初始化操作,例如模型下载 * @throws Exception */ void init() throws Exception; /** * 得到原始帧,做识别,添加框选 * @param frame * @return */ Frame convert(Frame frame); /** * 释放资源 */ void releaseOutputResource(); }
然后就是DetectService的实现类DetectAndSaveService.java,完整代码如下,有几处要注意的地方稍后提到:
package com.bolingcavalry.grabpush.extend; import com.bolingcavalry.grabpush.Constants; import lombok.extern.slf4j.Slf4j; import org.bytedeco.javacpp.Loader; import org.bytedeco.javacv.Frame; import org.bytedeco.javacv.OpenCVFrameConverter; import org.bytedeco.opencv.opencv_core.*; import org.bytedeco.opencv.opencv_objdetect.CascadeClassifier; import java.io.File; import java.net.URL; import java.text.SimpleDateFormat; import java.util.Date; import java.util.concurrent.atomic.AtomicInteger; import static org.bytedeco.opencv.global.opencv_imgcodecs.imwrite; import static org.bytedeco.opencv.global.opencv_imgproc.*; /** * @author willzhao * @version 1.0 * @description 检测人脸并保存到硬盘的服务 * @date 2021/12/3 8:09 */ @Slf4j public class DetectAndSaveService implements DetectService { /** * 每一帧原始图片的对象 */ private Mat grabbedImage = null; /** * 原始图片对应的灰度图片对象 */ private Mat grayImage = null; /** * 分类器 */ private CascadeClassifier classifier; /** * 转换器 */ private OpenCVFrameConverter.ToMat converter = new OpenCVFrameConverter.ToMat(); /** * 模型文件的下载地址 */ private String modelFileUrl; /** * 存放人脸图片的位置 */ private String basePath; /** * 记录图片总数 */ private final AtomicInteger num = new AtomicInteger(); /** * 训练的图片尺寸 */ Size size = new Size(Constants.RESIZE_WIDTH, Constants.RESIZE_HEIGHT); /** * 构造方法,在此指定模型文件的下载地址 * @param modelFileUrl 人脸检测模型地址 * @param basePath 检测出的人脸小图在硬盘上的存放地址 */ public DetectAndSaveService(String modelFileUrl, String basePath) { this.modelFileUrl = modelFileUrl; // 图片保存在硬盘的位置,注意文件名的固定前缀是当前的年月日时分秒 this.basePath = basePath + new SimpleDateFormat("yyyyMMddHHmmss").format(new Date()) + "-"; } /** * 音频采样对象的初始化 * @throws Exception */ @Override public void init() throws Exception { // 下载模型文件 URL url = new URL(modelFileUrl); File file = Loader.cacheResource(url); // 模型文件下载后的完整地址 String classifierName = file.getAbsolutePath(); // 根据模型文件实例化分类器 classifier = new CascadeClassifier(classifierName); if (classifier == null) { log.error("Error loading classifier file [{}]", classifierName); System.exit(1); } } @Override public Frame convert(Frame frame) { // 由帧转为Mat grabbedImage = converter.convert(frame); // 灰度Mat,用于检测 if (null==grayImage) { grayImage = DetectService.buildGrayImage(grabbedImage); } String filePath = basePath + num.incrementAndGet(); // 进行人脸识别,根据结果做处理得到预览窗口显示的帧 return detectAndSave(classifier, converter, frame, grabbedImage, grayImage, filePath , size); } /** * 程序结束前,释放人脸识别的资源 */ @Override public void releaseOutputResource() { if (null!=grabbedImage) { grabbedImage.release(); } if (null!=grayImage) { grayImage.release(); } if (null==classifier) { classifier.close(); } } /** * * @param classifier 分类器 * @param converter 转换工具 * @param rawFrame 原始帧 * @param grabbedImage 原始图片的Mat对象 * @param grayImage 原始图片对应的灰度图片的Mat对象 * @param basePath 图片的基本路径 * @param size 训练时要求的图片大小 * @return */ static Frame detectAndSave(CascadeClassifier classifier, OpenCVFrameConverter.ToMat converter, Frame rawFrame, Mat grabbedImage, Mat grayImage, String basePath, Size size) { // 当前图片转为灰度图片 cvtColor(grabbedImage, grayImage, CV_BGR2GRAY); // 存放检测结果的容器 RectVector objects = new RectVector(); // 开始检测 classifier.detectMultiScale(grayImage, objects); // 检测结果总数 long total = objects.size(); // 如果没有检测到结果就提前返回 if (total<1) { return rawFrame; } // 假设现在是一个人对着摄像头,因为此时检测的结果如果大于1,显然是检测有问题 if (total>1) { return rawFrame; } Mat faceMat; // 如果有检测结果,就根据结果的数据构造矩形框,画在原图上 // 前面的判断确保了此时只有一个人脸 Rect r = objects.get(0); // 从完整的灰度图中取得一个矩形小图的Mat对象 faceMat = new Mat(grayImage, r); // 训练时用的图片尺寸是固定的,因此这里要调整大小 resize(faceMat, faceMat, size); // 图片的保存位置 String imagePath = basePath + "." + Constants.IMG_TYPE; // 保存图片到硬盘 imwrite(imagePath, faceMat); // 人脸的位置信息 int x = r.x(), y = r.y(), w = r.width(), h = r.height(); // 在人脸上画矩形 rectangle(grabbedImage, new Point(x, y), new Point(x + w, y + h), Scalar.RED, 1, CV_AA, 0); // 释放检测结果资源 objects.close(); // 将标注过的图片转为帧,返回 return converter.convert(grabbedImage); } }
- 上述代码有几处要注意:
- detectAndSave方法中,当前照片检测出的人脸数如果大于1就提前返回不做处理了,这是因为假定运行程序的时候,摄像头前面只有一个人,所以如果检测出超过一张人脸,就认为当前照片的检测不准确,就不再处理当前照片了(实际使用中发现常有检测失误的情况,例如把一个矩形盒子检测为人脸),这个提前返回的逻辑,您可以根据自己的环境去调整
- imwrite方法可以将Mat以图片的形式保存到硬盘
- 保存文件到磁盘前调用了resize方法,将图片调整为164*164大小,这是因为后面的训练和检测统一使用该尺寸
- 现在核心代码已经写完,需要再写一些代码来使用DetectAndSaveService
编码:运行框架
- 《JavaCV的摄像头实战之一:基础》创建的simple-grab-push工程中已经准备好了父类AbstractCameraApplication,所以本篇继续使用该工程,创建子类实现那些抽象方法即可
- 编码前先回顾父类的基础结构,如下图,粗体是父类定义的各个方法,红色块都是需要子类来实现抽象方法,所以接下来,咱们以本地窗口预览为目标实现这三个红色方法即可:
- 新建文件PreviewCameraWithDetectAndSave.java,这是AbstractCameraApplication的子类,其代码很简单,接下来按上图顺序依次说明
先定义CanvasFrame类型的成员变量previewCanvas,这是展示视频帧的本地窗口:
protected CanvasFrame previewCanvas
把前面创建的DetectService作为成员变量,后面检测的时候会用到:
/** * 检测工具接口 */ private DetectService detectService;
PreviewCameraWithDetectAndSave的构造方法,接受DetectService的实例:
/** * 不同的检测工具,可以通过构造方法传入 * @param detectService */ public PreviewCameraWithDetectAndSave(DetectService detectService) { this.detectService = detectService; }
然后是初始化操作,可见是previewCanvas的实例化和参数设置:
@Override protected void initOutput() throws Exception { previewCanvas = new CanvasFrame("摄像头预览,检测人脸并保存在硬盘", CanvasFrame.getDefaultGamma() / grabber.getGamma()); previewCanvas.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); previewCanvas.setAlwaysOnTop(true); // 检测服务的初始化操作 detectService.init(); }
接下来是output方法,定义了拿到每一帧视频数据后做什么事情,这里调用了detectService.convert检测人脸并保存图片,然后在本地窗口显示:
@Override protected void output(Frame frame) { // 原始帧先交给检测服务处理,这个处理包括物体检测,再将检测结果标注在原始图片上, // 然后转换为帧返回 Frame detectedFrame = detectService.convert(frame); // 预览窗口上显示的帧是标注了检测结果的帧 previewCanvas.showImage(detectedFrame); }
最后是处理视频的循环结束后,程序退出前要做的事情,先关闭本地窗口,再释放检测服务的资源:
@Override protected void releaseOutputResource() { if (null!= previewCanvas) { previewCanvas.dispose(); } // 检测工具也要释放资源 detectService.releaseOutputResource(); }
由于检测有些耗时,所以两帧之间的间隔时间要低于普通预览:
@Override protected int getInterval() { return super.getInterval()/8; }
至此,功能已开发完成,再写上main方法,在实例化DetectAndSaveService的时候注意入参有两个,第一个是人脸检测模型的下载地址,第二个是人脸照片保存在本地的位置,还有action方法的参数1000表示预览持续时间是1000秒:
public static void main(String[] args) { String modelFileUrl = "https://raw.github.com/opencv/opencv/master/data/haarcascades/haarcascade_frontalface_alt.xml"; new PreviewCameraWithDetectAndSave( new DetectAndSaveService( modelFileUrl, "E:\\temp\\202112\\18\\001\\man")) .action(1000); }
抓取第一个人的照片
- 运行main方法,然后请群众演员A登场,看着他一个人对着摄像头,开始......搔首弄姿,各种光线明暗、各种角度、各种表情都用上吧,哎,不忍直视...
- 由于开启了预览窗口,因此可以看到摄像头拍摄的效果,出现红框的矩形最终都会被保存为图片,请注意调整角度和表情,群众演员A好像很热衷于自拍,玩得不亦乐乎,好吧,让他放飞自我:
- 检测的图片到了一定数量就可以结束了,我这里保存了259张,如下图:
- 对以上照片,建议是用肉眼检查一遍所有照片,把不是人脸的全部删除,我发现了十多张不是人脸的照片,例如下面这张把脸上的一部分识别成了人脸,显然是有问题的,这样的照片就删除吧,不要用在训练了:
上述照片全部保存在E:\temp\202112\18\001\man目录下
抓取第二个人的照片
- 修改代码,把main方法中存放图片的目录改成E:\temp\202112\18\001\woman,然后再次运行程序,请群众演员B登场,恳求她像前一位群众演员那样一个人对着摄像头,开始......搔首弄姿,各种光线明暗、各种角度、各种表情都用上吧
- 于是,我们又顺利拿到第二位群众演员的大量人脸图片,记得要肉眼观察每一张照片,把不准确的都删除掉
- 至此,借助前面编写的程序,我们轻松拿到了两位群众演员的大量人脸照片,其中A的照片保存在E:\temp\202112\18\001\man,B的照片保存在E:\temp\202112\18\001\woman:
- 至此,本篇的任务已经完成,下一篇会用这些照片进行训练,为最终的识别做好准备;
欢迎关注思否:程序员欣宸
学习路上,你不孤单,欣宸原创一路相伴...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。