龙空技术网

10行代码实现人脸识别

全栈集结号 2044

前言:

现在我们对“android人脸检测算法”大体比较看重,你们都想要学习一些“android人脸检测算法”的相关内容。那么小编也在网上收集了一些有关“android人脸检测算法””的相关资讯,希望你们能喜欢,你们快快来学习一下吧!

什么是人脸识别

人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。

目前的人脸识别技术已经非常成熟了,还发展成3D人脸识别。而且现在各大厂商也都提供了人脸识别的API接口供我们调用,可以说几行代码就可以完成人脸识别。但是人脸识别的根本还是基于图像处理。在Python中最强大的图像处理库就是OpenCV。

OpenCV简介

OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉库,可以运行在Linux、Windows、Android和Mac OS操作系统上。OpenCV可用于开发实时的图像处理、计算机视觉以及模式识别程序。它轻量级而且高效——由一系列 C 函数和少量 C++ 类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。

OpenCV基本使用安装

pip install opencv-python  # 基础库pip install opencv-contrib-python  # 扩展库pip install opencv-python-headless
读取图片

读取和显示图片是最基本的操作了,OpenCV当中使用imread和imshow实现该操作

import cv2 as cv# 读取图片,路径不能含有中文名,否则图片读取不出来image = cv.imread('1111.jpg')# 显示图片cv.imshow('image', image)# 等待键盘输入,单位是毫秒,0表示无限等待cv.waitKey(0)# 因为最终调用的是C++对象,所以使用完要释放内存cv.destroyAllWindows()
将图片转为灰度图

OpenCV中数百中关于不同色彩控件之间转换的方法。目前最常用的有三种:灰度、BGR、HSV。

灰度色彩空间是通过去除彩色信息来讲图片转换成灰阶,灰度图会大量减少图像处理中的色彩处理,对人脸识别很有效。BGR每个像素都由一个三元数组来表示,分别代码蓝、绿、红三种颜色。python中还有一个库PIL,读取的图片通道是RGB,其实是一样的,只是颜色顺序不一样HSV,H是色调,S是饱和度,V是黑暗的程度

将图片转换为灰度图

import cv2 as cv# 读取图片,路径不能含有中文名,否则图片读取不出来image = cv.imread('1111.jpg')# cv2读取图片的通道是BGR,# PIL读取图片的通道是RGB# code选择COLOR_BGR2GRAY,就是BGR to GRAYgray_image = cv.cvtColor(image, code=cv.COLOR_BGR2GRAY)# 显示图片cv.imshow('image', gray_image)# 等待键盘输入,单位是毫秒,0表示无限等待cv.waitKey(0)# 因为最终调用的是C++对象,所以使用完要释放内存cv.destroyAllWindows()
绘制矩形
image = cv.imread('1111.jpg')x, y, w, h = 50, 50, 80, 80# 绘制矩形cv.rectangle(image, (x, y, x+w, y+h), color=(0, 255, 0), thickness=2)# 绘制圆形cv.circle(image, center=(x + w//2, y + h//2), radius=w//2, color=(0, 0, 255), thickness=2)cv.imshow('image', image)cv.waitKey(0)cv.destroyAllWindows()
人脸检测

人脸检测实际上是对图像提取特征,Haar特征是一种用于实现实时人脸跟踪的特征。每个Haar特征都描述了相邻图像区域的对比模式。比如边、定点和细线都能生成具有判别性的特征。OpenCV给我们提供了Haar特征数据,在cv2/data目录下,使用特征数据的方法def detectMultiScale(self, image, scaleFactor=None, minNeighbors=None, flags=None, minSize=None, maxSize=None)

scaleFactor: 指定每个图像比例缩小多少图像minNeighbors: 指定每个候选矩形必须保留多少个邻居,值越大说明精度要求越高minSize:检测到的最小矩形大小maxSize: 检测到的最大矩形大小检测图片中人脸

import osimport cv2 as cvdef face_detect_demo(image):    # 将图片转换为灰度图    gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)    # 加载特征数据    face_detector = cv.CascadeClassifier(os.path.join(cv.data.haarcascades, 'haarcascade_frontalface_default.xml'))    faces = face_detector.detectMultiScale(gray)    for x, y, w, h in faces:        cv.rectangle(image, (x, y), (x + w, y + h), color=(0, 255, 0), thickness=2)# 读取图片,路径不能含有中文名,否则图片读取不出来image = cv.imread('2222.jpg')face_detect_demo(image)# 显示图片cv.imshow('image', image)# 等待键盘输入,单位是毫秒,0表示无限等待cv.waitKey(0)# 因为最终调用的是C++对象,所以使用完要释放内存cv.destroyAllWindows()

采用默认参数,检测人脸数据不全,需要调整detectMultiScale函数的参数,调整为faces = face_detector.detectMultiScale(gray, scaleFactor=1.02, minNeighbors=3)

我们发现除了检测到人脸数据,还有一些其他的脏数据,这个时候可以打印检测出的人脸数据位置和大小

faces = face_detector.detectMultiScale(gray, scaleFactor=1.02, minNeighbors=3)for x, y, w, h in faces:    print(x, y, w, h) # 打印每一个检测到的数据位置和大小    cv.rectangle(image, (x, y), (x + w, y + h), color=(0, 255, 0), thickness=2)

从大小中我们看到最大的两个矩形,刚好是人脸数据,其余都是脏数据,那么继续修改函数参数faces = face_detector.detectMultiScale(gray, scaleFactor=1.02, minNeighbors=3, minSize=(80, 80))

检测视频中人脸

视频就是一张一张的图片组成的,在视频的帧上面重复这个过程就能完成视频中的人脸检测了。视频读取OpenCV为我们提供了函数VideoCapture,参数可以是视频文件或者0(表示调用摄像头)

import cv2 as cv# 人脸检测def face_detect_demo(image):    try:        # 将图片转换为灰度图        gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)        # 加载特征数据        face_detector = cv.CascadeClassifier(os.path.join(cv.data.haarcascades, 'haarcascade_frontalface_default.xml'))        faces = face_detector.detectMultiScale(gray)        for x, y, w, h in faces:            print(x, y, w, h)            cv.rectangle(image, (x, y), (x + w, y + h), color=(0, 255, 0), thickness=2)    except Exception as e:        passcap = cv.VideoCapture('人脸识别.mp4')while cap.isOpened():    flag, frame = cap.read()    face_detect_demo(frame)    cv.imshow('result', frame)    if ord('q') == cv.waitKey(5):        breakcap.realse()cv.destroyAllWindows()

这个我们是做的人脸识别,怎么把爱好都识别了,这么先进吗?很显然这不太符合我们的要求,爱好只能藏在心里,你给我检测出来就不行了。所以我们必须要进行优化处理。OpenCV为我们提供了一个机器学习的小模块,我们可以训练它,让它只识别我们需要的部分,不要乱猜测。

训练数据

训练数据就是我们把一些图片交给训练模型,让模型熟悉她,这样它就能更加准确的识别相同的图片。训练的数据一般我们可以从网上搜索:人脸识别数据库,或者从视频中保存美帧的数据作为训练集。所有的人脸识别算法在他们的train()函数中都有两个参数:图像数组和标签数组。这些标签标示进行识别时候的人脸ID,根据ID可以知道被识别的人是谁。

获取训练集

从视频中每隔5帧截取一个图片,保存成图片

import cv2cap = cv2.VideoCapture('人脸识别.mp4')number = 100count = 1while cap.isOpened() and number > 0:    flag, frame = cap.read()    if not flag:        break    if count % 5 == 0:        # 按照视频图像中人脸的大体位置进行裁剪,只取人脸部分        img = frame[70:280, 520:730]        cv2.imwrite('data/{}.png'.format(number), img)        number -= 1    count += 1cap.release()cv2.destroyAllWindows()

使用LBPH训练模型

def getImageAndLabels(path_list):    faces = []    ids = []    image_paths = [os.path.join(path_list, f) for f in os.listdir(path_list) if f.endswith('.png')]    face_detector = cv.CascadeClassifier(os.path.join(cv.data.haarcascades, 'haarcascade_frontalface_default.xml'))    for image in image_paths:        img = cv.imread(image)        gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY)        faces = face_detector.detectMultiScale(gray)        _id = int(os.path.split(image)[1].split('.')[0])        for x, y, w, h in faces:            faces.append(gray[y:y+h, x:x+w])            ids.append(_id)    return faces, idsfaces, ids = getImageAndLabels('data')# 训练recognizer = cv.face.LBPHFaceRecognizer_create()recognizer.train(faces, np.array(ids))# 保存训练特征recognizer.write('trains/trains.yml')
基于LBPH的人脸识别

LBPH将检测到的人脸分为小单元,并将其与模型中的对应单元进行比较,对每个区域的匹配值产生一个直方图。调整后的区域中调用predict函数,该函数返回两个元素的数组,第一个元素是所识别的个体标签,第二个元素是置信度评分。所有的算法都有一个置信度评分阈值,置信度评分用来衡量图像与模型中的差距,0表示完全匹配。LBPH有一个好的识别参考值要低于50。基本步骤为:

cv.VideoCapture读取视频Haar算法检测人脸数据基于LBPH训练集得到准确人脸数据,并输出标记此人是谁按置信度取准确度高的人脸标记出来

import osimport cv2 as cvdef face_detect_demo(image):    try:        global number        # 将图片转换为灰度图        gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY)        # 加载特征数据        faces = face_detector.detectMultiScale(gray, scaleFactor=1.02, minNeighbors=3)        for x, y, w, h in faces:            # 获取置信度,大于80表示取值错误            _id, confidence = recognizer.predict(gray[y:y + h, x:x + w])            if confidence < 80:                cv.rectangle(image, (x, y), (x + w, y + h), color=(0, 255, 0), thickness=2)    except Exception as e:        passdef check_face():    cap = cv.VideoCapture('人脸识别.mp4')    while cap.isOpened():        flag, frame = cap.read()        if not flag:            break        face_detect_demo(frame)        cv.imshow('img', frame)        cv.waitKey(2)    cv.destroyAllWindows()if __name__ == '__main__':    # 加载训练数据文件    recognizer = cv.face.LBPHFaceRecognizer_create()    recognizer.read('trains/trains.yml')    face_detector = cv.CascadeClassifier(os.path.join(cv.data.haarcascades, 'haarcascade_frontalface_default.xml'))    check_face()
总结

通过上面一步步的学习,你是不是对OpenCV人脸识别有个基本的认识了呢?但是我们也看到了,整个人脸识别的主要算法还是基于Haar,而且准确度并不是特别高,主要是会检测出很多非人脸的数据。LBPH是让我们给某个人脸进行标记,告诉我们他是谁,并没有提高实际的检测准确度。现在机器学习是非常火爆的,基于OpenCV的机器学习人脸识别也精确度也很高,下次我们在来对比几种机器学习人脸识别的库。

标签: #android人脸检测算法