赞
踩
最近闲来无事,和一个学妹完成了一个SRT,主要是关于元宇宙什么的,不过我在其中主要的工作是用python写一个人脸识别系统,发到这里和大家分享一下
注:我利用了几个包,包括opencv,dlib,numpy等,所有包都会显示在代码开头import后
第一步,利用PyCharm先做灰度图
想要识别表情,计算机就需要转换人脸图片转化为灰度的图,计算机不如人脑聪明,要把这张图变成到电脑看得懂的形式。
- import cv2 as cv
- img=cv.imread('img.png')
-
- #灰度
- gray_img=cv.cvtColor(img,cv.COLOR_BGR2GRAY)
- cv.imshow('gray',gray_img)
- cv.imwrite('gray_face1.jpg',gray_img)
- #修改尺寸
-
- cv.imshow('read_img',img)
- cv.waitKey(0)
- cv.destroyAllWindows()
第二步,改变灰度图大小
每张图片大小都是不固定的,一运行忽然很大总会吓你一跳,也不便于观察,这一步,我们先把灰度图的尺寸改变一下
- import cv2 as cv
- img=cv.imread('img.png')
- resize_img=cv.resize(img,dsize=(200,200))
- cv.imshow('img',img)
- cv.imshow('resize_img',resize_img)
- print('修改前:',img.shape)
- print('修改后:',resize_img.shape)
- while True:
- if ord('q')==cv.waitKey(0):
- break
-
- cv.destroyAllWindows()
第三步,锁定人脸
基础部分都学完了,该做正事了,这一步我们要锁定人脸,好让后续的工作继续进行
- import cv2 as cv
- img=cv.imread('3575ce750fbfb4906ac6d74909de2d6.jpg')
- def face_detect_demo():
- gary = cv.cvtColor(img, cv.COLOR_BGR2GRAY)
- face_detect=cv.CascadeClassifier('C:/Users/SGB/Downloads/opencv/sources/data/haarcascades/haarcascade_frontalface_alt2.xml')//调用了一个数据包
- face=face_detect.detectMultiScale(gary)
- for x,y,w,h in face:
- cv.rectangle(img,(x,y),(x+w,y+h),color=(0,0,255),thickness=2)
- cv.imshow('result',img)
-
-
-
-
- face_detect_demo()
-
- while True:
- if ord('q')==cv.waitKey(0):
- break
-
- cv.destroyAllWindows()
运行结果
第四步,锁定人脸上关键的点
为了识别表情,我们需要把脸上关键的点都给打印出来,比方说眉毛,眼睛,嘴巴等,我用的是前人训练出来的68点制。
- import cv2
- import numpy as np
- import dlib
-
- img_path = "3575ce750fbfb4906ac6d74909de2d6.jpg"
-
- # 加载dlib 人脸检测器
- detector = dlib.get_frontal_face_detector()
- # 加载dlib 人脸关键点
- predictor = dlib.shape_predictor('shape_predictor_68_face_landmarks.dat')
- # 读入人脸图片
- img = cv2.imread(img_path)
- cv2.imshow('img', img)
- cv2.waitKey(0)
-
- # 转化为灰度图
- img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
- cv2.imshow('img_gray', img_gray)
- cv2.waitKey(0)
-
- # 检测人脸
- dets = detector(img_gray, 1)
- # 遍历每张人脸
- for face in dets:
- # 获取人脸关键点(对遍历到的这张脸进行关键点检测)
- shape = predictor(img_gray, face)
- # 获取每个点的坐标,并标记在图片上
- for pt in shape.parts():
- # 转换坐标
- pt_pos = (pt.x, pt.y)
- # 画点
- img_face = cv2.circle(img, pt_pos, 1, (0,255,0), 2)
-
- cv2.imshow('face', img_face)
- cv2.waitKey(0)
运行结果
第五步,打开摄像头,对人脸进行关键点打印
打开摄像头,对人脸进行打印关键点的操作。
- import cv2
- import numpy as np
- import dlib
-
- # 加载dlib 人脸检测器
- detector = dlib.get_frontal_face_detector()
- # 加载dlib 人脸关键点
- predictor = dlib.shape_predictor('./shape_predictor_68_face_landmarks.dat')
-
- # 打开摄像头
- cap = cv2.VideoCapture(0)
-
- while(1):
- flag, frame = cap.read()#获取视频内容
- frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)#加载灰度图像
- b, g, r = cv2.split(frame)
- frame_RGB = cv2.merge((r, g ,b))
- rets = detector(frame_gray, 0)#定位
- for face in rets:
- pots = predictor(frame_gray, face)#点
- for i in pots.parts():
- pos_pot = (i.x, i.y)
- frame_face = cv2.circle(frame, pos_pot, 1, (0,255,0), 2)
- cv2.imshow('face', frame_face)
-
- k = cv2.waitKey(1)
- if k & 0xff == ord('q'):#关闭摄像头用Q
- break
- cap.release()
- cv2.destroyAllWindows()
第五步,打开摄像头进行表情分析
利用之前的关键点,对其进行算法分析,比方说眉毛下压是生气,眼睛眯起来是开心等。
- """
- 从视屏中识别人脸,并实时标出面部特征点
- """
- import sys
- import dlib # 人脸识别的库dlib
- import numpy as np # 数据处理的库numpy
- import cv2 # 图像处理的库OpenCv
-
- img_path = "img.png"
- class face_emotion():
- def __init__(self):
- # 使用特征提取器get_frontal_face_detector
- self.detector = dlib.get_frontal_face_detector()
- # dlib的68点模型,使用作者训练好的特征预测器
- self.predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
-
- # 建cv2摄像头对象,这里使用电脑自带摄像头,如果接了外部摄像头,则自动切换到外部摄像头
- self.cap = cv2.VideoCapture(0)
- # 设置视频参数,propId设置的视频参数,value设置的参数值
- self.cap.set(3, 480)
- # 截图screenshoot的计数器
- self.cnt = 0
-
- def learning_face(self):
-
- # 眉毛直线拟合数据缓冲
- line_brow_x = []
- line_brow_y = []
-
- # cap.isOpened() 返回true/false 检查初始化是否成功
- while (self.cap.isOpened()):
-
- # cap.read()
- # 返回两个值:
- # 一个布尔值true/false,用来判断读取视频是否成功/是否到视频末尾
- # 图像对象,图像的三维矩阵
- flag, im_rd = self.cap.read()
-
- # 每帧数据延时1ms,延时为0读取的是静态帧
- k = cv2.waitKey(1)
-
- # 取灰度
- img_gray = cv2.cvtColor(im_rd, cv2.COLOR_RGB2GRAY)
- #im_rd的意思是img
- # 使用人脸检测器检测每一帧图像中的人脸。并返回人脸数rects
- faces = self.detector(img_gray, 0)
-
- # 待会要显示在屏幕上的字体
- font = cv2.FONT_HERSHEY_SIMPLEX
-
- # 如果检测到人脸
- if (len(faces) != 0):
-
- # 对每个人脸都标出68个特征点
- for i in range(len(faces)):
- # enumerate方法同时返回数据对象的索引和数据,k为索引,d为faces中的对象
- for k, d in enumerate(faces):
- # 用红色矩形框出人脸
- cv2.rectangle(im_rd, (d.left(), d.top()), (d.right(), d.bottom()), (0, 0, 255))
- # 计算人脸热别框边长
- self.face_width = d.right() - d.left()
-
- # 使用预测器得到68点数据的坐标
- shape = self.predictor(im_rd, d)
- # 圆圈显示每个特征点
- for i in range(68):
- cv2.circle(im_rd, (shape.part(i).x, shape.part(i).y), 2, (0, 255, 0), -1, 8)
- # cv2.putText(im_rd, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
- # (255, 255, 255))
-
- # 分析任意n点的位置关系来作为表情识别的依据
- mouth_width = (shape.part(54).x - shape.part(48).x) / self.face_width # 嘴巴咧开程度
- mouth_higth = (shape.part(66).y - shape.part(62).y) / self.face_width # 嘴巴张开程度
- # print("嘴巴宽度与识别框宽度之比:",mouth_width_arv)
- # print("嘴巴高度与识别框高度之比:",mouth_higth_arv)
-
- # 通过两个眉毛上的10个特征点,分析挑眉程度和皱眉程度
- brow_sum = 0 # 高度之和
- frown_sum = 0 # 两边眉毛距离之和
- for j in range(17, 21):
- brow_sum += (shape.part(j).y - d.top()) + (shape.part(j + 5).y - d.top())
- frown_sum += shape.part(j + 5).x - shape.part(j).x
- line_brow_x.append(shape.part(j).x)
- line_brow_y.append(shape.part(j).y)
-
- # self.brow_k, self.brow_d = self.fit_slr(line_brow_x, line_brow_y) # 计算眉毛的倾斜程度
- tempx = np.array(line_brow_x)
- tempy = np.array(line_brow_y)
- z1 = np.polyfit(tempx, tempy, 1) # 拟合成一次直线
- self.brow_k = -round(z1[0], 3) # 拟合出曲线的斜率和实际眉毛的倾斜方向是相反的
-
- brow_hight = (brow_sum / 10) / self.face_width # 眉毛高度占比
- brow_width = (frown_sum / 5) / self.face_width # 眉毛距离占比
- # print("眉毛高度与识别框高度之比:",round(brow_arv/self.face_width,3))
- # print("眉毛间距与识别框高度之比:",round(frown_arv/self.face_width,3))
-
- # 眼睛睁开程度
- eye_sum = (shape.part(41).y - shape.part(37).y + shape.part(40).y - shape.part(38).y +
- shape.part(47).y - shape.part(43).y + shape.part(46).y - shape.part(44).y)
- eye_hight = (eye_sum / 4) / self.face_width
- # print("眼睛睁开距离与识别框高度之比:",round(eye_open/self.face_width,3))
-
- # 分情况讨论
- # 张嘴,可能是开心或者惊讶
- if round(mouth_higth >= 0.03):
- if eye_hight >= 0.056:
- cv2.putText(im_rd, "amazing", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX,
- 0.8,
- (0, 0, 255), 2, 4)
- else:
- cv2.putText(im_rd, "happy", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
-
- # 没有张嘴,可能是正常和生气
- else:
- if self.brow_k <= -0.3:
- cv2.putText(im_rd, "angry", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
- else:
- cv2.putText(im_rd, "nature", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
-
- # 标出人脸数
- cv2.putText(im_rd, "Faces: " + str(len(faces)), (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)
- else:
- # 没有检测到人脸
- cv2.putText(im_rd, "No Face", (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)
-
- # 添加说明
- im_rd = cv2.putText(im_rd, "S: screenshot", (20, 400), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)
- im_rd = cv2.putText(im_rd, "Q: quit", (20, 450), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)
-
- # 按下s键截图保存
- if (k == ord('s')):
- self.cnt += 1
- cv2.imwrite("screenshoot" + str(self.cnt) + ".jpg", im_rd)
-
- # 按下q键退出
- if (k == ord('q')):
- break
-
- # 窗口显示
- cv2.imshow("camera", im_rd)
-
- # 释放摄像头
- self.cap.release()
-
- # 删除建立的窗口
- cv2.destroyAllWindows()
-
-
- if __name__ == "__main__":
- my_face = face_emotion()
- my_face.learning_face()
-
-
到这步的时候,其实已经花了接近一周的时间,项目也接近结束,不过在这个基础之上,我想,是否可以照葫芦画瓢,再做出一个图片表情识别,做了一下午,居然真的被我弄出来了,算是瞎猫碰到死耗子。
- """
- 从视屏中识别人脸,并实时标出面部特征点
- """
- import sys
- import dlib # 人脸识别的库dlib
- import imutils
- import numpy as np # 数据处理的库numpy
- import cv2 # 图像处理的库OpenCv
-
- img_path = "img_4.png"
- class face_emotion():
- def __init__(self):
- # 使用特征提取器get_frontal_face_detector
- self.detector = dlib.get_frontal_face_detector()
- # dlib的68点模型,使用作者训练好的特征预测器
- self.predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
- self.image = cv2.imread("img.png")
- self.image = imutils.resize(self.image, width=500)
- gray = cv2.cvtColor(self.image, cv2.COLOR_BGR2GRAY)
-
- self.cap = cv2.imread("img.png")
- # 截图screenshoot的计数器
-
-
- def learning_face(self):
-
- # 眉毛直线拟合数据缓冲
- line_brow_x = []
- line_brow_y = []
-
- # cap.isOpened() 返回true/false 检查初始化是否成功
- while (1):
-
- # 返回两个值:
- # 图像对象,图像的三维矩阵
- im_rd = cv2.imread(img_path)
-
- # 每帧数据延时1ms,延时为0读取的是静态帧
- k = cv2.waitKey(1)
-
- # 取灰度
- img_gray = cv2.cvtColor(im_rd, cv2.COLOR_RGB2GRAY)
-
- # 使用人脸检测器检测每一帧图像中的人脸。并返回人脸数rects
- faces = self.detector(img_gray, 0)
-
- # 待会要显示在屏幕上的字体
- font = cv2.FONT_HERSHEY_SIMPLEX
-
- # 如果检测到人脸
- if (len(faces) != 0):
-
- # 对每个人脸都标出68个特征点
- for i in range(len(faces)):
- # enumerate方法同时返回数据对象的索引和数据,k为索引,d为faces中的对象
- for k, d in enumerate(faces):
- # 用红色矩形框出人脸
- cv2.rectangle(im_rd, (d.left(), d.top()), (d.right(), d.bottom()), (0, 0, 255))
- # 计算人脸热别框边长
- self.face_width = d.right() - d.left()
-
- # 使用预测器得到68点数据的坐标
- shape = self.predictor(im_rd, d)
- # 圆圈显示每个特征点
- for i in range(68):
- cv2.circle(im_rd, (shape.part(i).x, shape.part(i).y), 2, (0, 255, 0), -1, 8)
- # cv2.putText(im_rd, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
- # (255, 255, 255))
-
- # 分析任意n点的位置关系来作为表情识别的依据
- mouth_width = (shape.part(54).x - shape.part(48).x) / self.face_width # 嘴巴咧开程度
- mouth_higth = (shape.part(66).y - shape.part(62).y) / self.face_width # 嘴巴张开程度
- # print("嘴巴宽度与识别框宽度之比:",mouth_width_arv)
- # print("嘴巴高度与识别框高度之比:",mouth_higth_arv)
-
- # 通过两个眉毛上的10个特征点,分析挑眉程度和皱眉程度
- brow_sum = 0 # 高度之和
- frown_sum = 0 # 两边眉毛距离之和
- for j in range(17, 21):
- brow_sum += (shape.part(j).y - d.top()) + (shape.part(j + 5).y - d.top())
- frown_sum += shape.part(j + 5).x - shape.part(j).x
- line_brow_x.append(shape.part(j).x)
- line_brow_y.append(shape.part(j).y)
-
- # self.brow_k, self.brow_d = self.fit_slr(line_brow_x, line_brow_y) # 计算眉毛的倾斜程度
- tempx = np.array(line_brow_x)
- tempy = np.array(line_brow_y)
- z1 = np.polyfit(tempx, tempy, 1) # 拟合成一次直线
- self.brow_k = -round(z1[0], 3) # 拟合出曲线的斜率和实际眉毛的倾斜方向是相反的
-
- brow_hight = (brow_sum / 10) / self.face_width # 眉毛高度占比
- brow_width = (frown_sum / 5) / self.face_width # 眉毛距离占比
- # print("眉毛高度与识别框高度之比:",round(brow_arv/self.face_width,3))
- # print("眉毛间距与识别框高度之比:",round(frown_arv/self.face_width,3))
-
- # 眼睛睁开程度
- eye_sum = (shape.part(41).y - shape.part(37).y + shape.part(40).y - shape.part(38).y +
- shape.part(47).y - shape.part(43).y + shape.part(46).y - shape.part(44).y)
- eye_hight = (eye_sum / 4) / self.face_width
- # print("眼睛睁开距离与识别框高度之比:",round(eye_open/self.face_width,3))
-
- # 分情况讨论
- # 张嘴,可能是开心或者惊讶
- if round(mouth_higth >= 0.03):
- if eye_hight >= 0.056:
- cv2.putText(im_rd, "amazing", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX,
- 0.8,
- (0, 0, 255), 2, 4)
- else:
- cv2.putText(im_rd, "happy", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
-
- # 没有张嘴,可能是正常和生气
- else:
- if self.brow_k <= -0.3:
- cv2.putText(im_rd, "angry", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
- else:
- cv2.putText(im_rd, "nature", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
- (0, 0, 255), 2, 4)
-
- # 标出人脸数
- cv2.putText(im_rd, "Faces: " + str(len(faces)), (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)
- else:
- # 没有检测到人脸
- cv2.putText(im_rd, "No Face", (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)
-
- # 添加说明
- im_rd = cv2.putText(im_rd, "S: screenshot", (20, 400), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)
- im_rd = cv2.putText(im_rd, "Q: quit", (20, 450), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)
-
- # 按下s键截图保存
- if (k == ord('s')):
- self.cnt += 1
- cv2.imwrite("screenshoot" + str(self.cnt) + ".jpg", im_rd)
-
- # 按下q键退出
- if (k == ord('q')):
- break
-
- # 窗口显示
- cv2.imshow("camera", im_rd)
-
-
- # 删除建立的窗口
- cv2.destroyAllWindows()
-
-
- if __name__ == "__main__":
- my_face = face_emotion()
- my_face.learning_face()
-
-
运行结果,有不足的地方还请指正,谢谢大家!!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。