您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
AI开发 正文
发私信给高云河
发送

0

想要训练专属人脸识别模型?先掌握构建人脸数据集的三种绝招

本文作者:高云河 编辑:汪思颖 2018-06-28 10:28
导语:快来实战操作,构建你自己的专属人脸识别模型吧!

雷锋网(公众号:雷锋网) AI 研习社按,随着深度学习的发展,很多技术已经落地,成为我们每天都能接触到的产品,人脸识别就是其中之一。人脸识别的应用范围很广,涉及上下班打卡、门禁、设备登录、机场、公共区域的监控等多个领域。

我们可以自己训练定制化的人脸识别模型,但在训练模型识别图片或视频中的人脸之前,最重要的一个步骤是收集人脸数据集。如果使用已经设计好的公开数据集,比如 Labeled Faces in the Wild(LFW),这时候最难的一部分工作已经完成了,大家可以直接使用各种模型创造自己的人脸识别应用。

但是对于大多数人来说,我们想要识别的并不是目前开源的人脸数据集中的人脸,而是我们自己、朋友、家人、同事等等的脸。为了实现这个目标,我们需要收集自己想要识别的人脸,并按照某种方式处理好它们。这个过程通常被称为人脸登记,我们将用户作为一个样本『登记』或者『注册』到我们的数据集中。下面会介绍三种方法进行人脸登记,大家可以根据自己的情况选择最合适的方法。

如何创建定制的人脸识别数据集

首先我将介绍使用 OpenCV 和一颗摄像头来检测视频流中的人脸,并将带有人脸的图像帧保存到硬盘上。接下来我会列举几种用程序自动从网上下载人脸图片的方法。最后,我们将讨论人工收集图像,以及在什么情况下这种方法是合适的。

现在开始构建一个人脸识别数据集吧!

方法 1:通过 OpenCV 和摄像头登记人脸

该方法适用于:

1. 构建一个某区域内的人脸识别系统

2. 对于目标人脸,能够找到特定的人并收集他们的人脸图像

这样的系统适用于公司、学校或者其他组织,在这里人们会每天不定时的出现。

为了得到这些人的人脸样本,我们会在一个房间内放置好电脑和摄像机,通过摄像机捕捉目标人脸在摄像画面中的人脸信息,将并包含人脸的图像帧保存到硬盘中。

收集不同条件下的目标人脸样本可能会需要几天或几周的时间,这样能使得人脸数据集足够丰富,很好地表示不同状态下的人脸,保证训练出来模型有足够的鲁棒性,收集的人脸包括:

  • 不同亮度下的人脸

  • 每天不同时候,不同光线角度下的人脸

  • 不同表情和情绪状态下的人脸

接下来我们更进一步,写一个简单的 Python 脚本来构建人脸识别数据集,这个脚本会做如下工作:

  1.  连接并控制摄像头

  2.  检测人脸

  3.  将包含人脸的图像帧写入硬盘

打开一个叫 build_face_dataset.py 的 Python 脚本,首先导入一些必要的库,包括 OpenCV 和 imutils 

1 # import the necessary packages

2 from imutils.video import VideoStream

3 import argparse

4 import imutils

5 import time

6 import cv2

7 import os

可以参考这篇文章安装 OpenCV

imutils 可以通过 pip 安装:pip install --upgrade imutils

如果使用的是 Python 虚拟环境,不要忘记使用 workon 命令

现在环境已经配置好了,接下来讨论两个必要的命令行参数:

9 # construct the argument parser and parse the arguments

10 ap = argparse.ArgumentParser()

11 ap.add_argument("-c", "--cascade", required=True,

12 help = "path to where the face cascade resides")

13 ap.add_argument("-o", "--output", required=True,

14 help="path to output directory")

15 args = vars(ap.parse_args())

命令行参数可以通过 argparse 库在运行时解析,这个库是包含在 Python 安装中的。

我们有两个命令行参数:

  • --cascade:硬盘中的 Haar cascade 文件路径,用于 OpenCV 检测人脸

  • --output:输出的文件路径。人脸图像将会被保存到该路径中,因此最好按照人名将人脸分类保存,比如将『John Smith』的人脸图像保存到 dataset/john_smith 的路径下

接下来加载人脸的 Haar cascade 文件并初始化视频流:

17 # load OpenCV's Haar cascade for face detection from disk

18 detector = cv2.CascadeClassifier(args["cascade"])

19

20 # initialize the video stream, allow the camera sensor to warm up,

21 # and initialize the total number of example faces written to disk

22 # thus far

23 print("[INFO] starting video stream...")

24 vs = VideoStream(src=0).start()

25 # vs = VideoStream(usePiCamera=True).start()

26 time.sleep(2.0)

27 total = 0

在第 18 行,我们加载了 OpenCV 的 Haar 人脸检测器 detector。 这个 detector 将会在接下来每帧的循环中检测人脸;在 24 行会初始化并开启视频流 VideoStreem;如果使用的是树莓派的话,注释掉第 24 行的代码,使用第 25 行的代码;第 26 行让摄像头先热个身,暂停两秒钟;这一段代码也初始化了 total 计数器来表示保存的人脸图片的数量。

接下来,就开始对视频流的每帧图像进行处理:

29 # loop over the frames from the video stream

30 while True:

31 # grab the frame from the threaded video stream, clone it, (just

32 # in case we want to write it to disk), and then resize the frame

33 # so we can apply face detection faster

34 frame = vs.read()

35 orig = frame.copy()

36 frame = imutils.resize(frame, width=400)

37

38 # detect faces in the grayscale frame

39 rects = detector.detectMultiScale(

40 cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY), scaleFactor=1.1, 

41 minNeighbors=5, minSize=(30, 30))

42

43 # loop over the face detections and draw them on the frame

44 for (x, y, w, h) in rects:

45 cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2)

在第 30 行, 开始循环(循环在『q』键被按下之后结束);34-36 行,捕捉一帧画面:frame,创建一个copy,改变大小。

接下来就是人脸检测了!

使用 detectMultiScale 方法在每帧画面中检测人脸,这个函数需要如下参数:

image:一个灰度图像

scaleFactor:指定在每个维度图像尺寸减少的比例

minNeighbor:该参数指定候选的检测框数量,以保证检测是有效的

minSize:最小的人脸图像尺寸

在某些特殊场景下,可能需要精调这些参数以减少 false positive 的数量或提高人脸的检测率,但是对于一些普通的人脸检测任务来说,这些参数就可以很好的工作了。

其实也还有一些其他更好的方法检测人脸,比如在之前的文章中提到过,可以使用预训练好的深度学习模型来检测人脸。但是本文里提到的使用 OpenCV 的方法的优点是无需调参,而且速度非常快。

人脸检测的结果被保存在一个 rects 的列表中(矩形检测框)。为了将这些矩形画在图像上,在 44、45 行中遍历所有矩形框,并将他们画在图片上。

最后一步就是将检测框显示在屏幕上,以及解决按键退出的问题:

48 # show the output frame

49 cv2.imshow("Frame", frame)

50 key = cv2.waitKey(1) & 0xFF

51 

52 # if the `k` key was pressed, write the *original* frame to disk

53 # so we can later process it and use it for face recognition

54 if key == ord("k"):

55 p = os.path.sep.join([args["output"], "{}.png".format(

56 str(total).zfill(5))])

57 cv2.imwrite(p, orig)

58 total += 1

59

60 # if the `q` key was pressed, break from the loop

61 elif key == ord("q"):

62 break

第 48 行执行将该帧图像显示在屏幕上,第 49 行执行捕捉键盘指令

『k』、『q』键盘指令对应不同的命令:

  • k:保留该帧图像并保存到硬盘中(53-56 行),同时增加 total 计数器。对每个想要保存的图像帧,都需要按『k』来保存。为了能够更好地训练模型,最好要保存不同角度、人脸在画面不同位置、带/不带眼镜的图像。

  • q:退出循环,退出脚本

最后,将保存的图片数量打印到屏幕上,并清空缓存:

64 # print the total faces saved and do a bit of cleanup

65 print("[INFO] {} face images stored".format(total))

66 print("[INFO] cleaning up...")

67 cv2.destroyAllWindows()

68 vs.stop()

接下来,只需在终端里运行如下命令就可以了:

$ python build_face_dataset.py --cascade haarcascade_frontalface_default.xml \

--output dataset/adrian

[INFO] starting video stream...

[INFO] 6 face images stored

[INFO] cleaning up...

这里推荐将每个人的人脸数据保存在数据集下的一个子文件夹内,这样能够保证数据集条理清晰,易于管理。

方法 2:使用程序自动下载人脸图片

想要训练专属人脸识别模型?先掌握构建人脸数据集的三种绝招

在这种场景下,我们并不需要真的找到那个人拍摄图片,只要他们经常出现在网上,我们能够在网上找到足够多的图片即可,这样就可以写脚本,通过各个平台的 API 下载这些图片了。

具体使用哪些 API 主要取决于想要收集的人的人脸信息,比如一个人经常在 Twitter 或者 Instagram 上发自拍,那么我们就可以使用这些平台的 API 来抓取图片。

还可以使用 Google 和 Bing 等搜索引擎来抓取:

在这篇博文中,可以找到使用 Google Images 手动或者使用脚本来下载图片的方法。

另一个更好的方法就是使用 Bing 的图片搜索 API,这样能够全自动下载图像,具体方法参见这篇博文

使用 Bing 图片搜索 API,我们能够从侏罗纪公园和侏罗纪世界这两部电影的海报中下载 218 张 Alan Grant 的脸部图片。下面展示了通过 Bing 图片搜索 API 下载演员 Owen Grady 的脸部图片的代码:

1 $ mkdir dataset/owen_grady

2 $ python search_bing_api.py --query "owen grady" --output dataset/owen_grady

使用这种方法下载几个人的人脸图像之后,我们看看整个数据集长什么样

1 $ tree jp_dataset --filelimit 10

2 jp_dataset

3 ├── alan_grant [22 entries]

4 ├── claire_dearing [53 entries]

5 ├── ellie_sattler [31 entries]

6 ├── ian_malcolm [41 entries]

7 ├── john_hammond [36 entries]

8 └── owen_grady [35 entries]

9

10 6 directories, 0 files

只要 20 分钟左右(包括手动挑出错误图像的时间),就能够做好一个侏罗纪公园的人脸数据集了。

想要训练专属人脸识别模型?先掌握构建人脸数据集的三种绝招


方法 3:手动收集人脸图像

想要训练专属人脸识别模型?先掌握构建人脸数据集的三种绝招

最后一个方法就是全手动收集人脸数据集,这是最不推荐的方法。这种方法显然是最繁琐的,而且需要大量时间。但是在某些特殊情况下,可能不得不使用这些方法。

手动收集的话,通常需要:

  • 使用搜索引擎搜索

  • 浏览社交媒体账号(Ins, 微博,微信等)

  • 图片分享服务(Google Photos, Flickr,500px 等)

你需要手动将这些结构图片保存到硬盘上,通常只有需要收集少量图片的时候才使用这种方法。

总结

在本篇博文中,一共回顾了构建自有人脸数据集的三种方法,具体选择哪种方法取决于你想要用这个数据集来做什么。

如果你想要构建一个某一区域内的人脸识别系统,例如用于教室、公司或者其他组织的人脸识别系统,最好的方法是将需要识别的人请到一个房间里,通过第一种方法在摄像头的视频流中收集人脸数据。

如果你想要构建一个包含公众人物、明星、运动员等的人脸识别系统,那么可能只能够在网上收集到他们的图像。在这种情况下,最好的方法是使用各平台的 API 自动下载样本图片(方法 2)

最后,如果要收集的人并没有公开社交账号,或者社交账号上很少发布图片,那就可能需要手动收集并管理数据集了(方法 3)。这种方法显然是最繁琐的,但是在某些情况下,可能不得不这样做。

所有代码和必要的库都可以在原博文中下载到,只需填写你的邮箱地址即可~

via pyimagesearch

雷锋网 AI 研习社编译整理雷锋网

雷锋网版权文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

文章点评:

表情
最新文章
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介