当前位置:   article > 正文

【换脸详细教程】手把手教你进行AI换脸:换脸流程及源码详解

ai换脸


最近AI换脸貌似比较火爆,就稍微研究了一下相关了内容。AI换脸是一个娱乐性比较强的应用,这种错位感让人觉得非常有趣。很多人都以为这是什么黑科技,但这里想告诉大家,AI换脸其实很简单。只需要你会一点Python基础,就可以实现自己的AI换脸程序。

本文将详细介绍图片换脸的基本原理以及实际的换脸过程。感兴趣的小伙伴可以一起试试哦~所有内容均已经打包好,获取方式如下:

关注GZH:阿旭算法与机器学习,回复:“换脸”即可获取本文源码、测试文件等内容,欢迎共同学习交流

1. 换脸基本原理

为了做人脸相关的工作,首先我们需要获得人脸的轮廓点。通常轮廓点检测也被称为 Face Alignment。本文的AI换脸实现就是建立在68个人脸轮廓点(Landmarks)的基础之上。而 Face Alignment 必须依赖一个人脸检测器提供人脸位置的矩形框,即 Face Detection。也就是说,本文所介绍的换脸或者其他精细化人脸操作的基础是 Face Detection + Face Alignment。但是,这两个技术并不需要我们亲自开发,dlib已经提供了效果不错、使用简便的第三方库。

AI换脸技术路线图的主要步骤如下:
在这里插入图片描述

我们想要将源图像B中的人脸放置到目标图像A中,这就需要将B中的人脸变换到A中人脸所在位置,然后截取对应区域并替换。如上图所示,这一步骤可以由OpenCV支持完成。最后,由于两张图像的人脸可能存在光照、色相等方面的不一致,为了替换后更加逼真,所以需要对图像B的颜色进行一些调整。

2 人脸检测及可视化

目标检测(Object Detection)一直都是计算机视觉应用的基础,这也是每次出现新的目标检测算法总能引起很大轰动的原因。完成人脸相关的任务,那自然就是需要人脸检测了。dlib提供了一个人脸检测器,可以使用如下方式获取:
face_detector = dlib.get_frontal_face_detector()
对输入的两幅带有人脸的图像进行 Face Detection,就可以获得其中人脸位置的矩形框,代码如下:

# coding:utf-8
import os, sys
import numpy as np
import cv2, dlib

img1_path = 'imgs/2.jpg'
img2_path = 'imgs/1.jpg'

face_detector = dlib.get_frontal_face_detector()
img1 = cv2.imread(img1_path, cv2.IMREAD_COLOR)
img2 = cv2.imread(img2_path, cv2.IMREAD_COLOR)
face1 = face_detector(img1, 1)
face2 = face_detector(img2, 1)
print(face1, face2)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

输出结果:

rectangles[[(171, 201) (438, 468)]] rectangles[[(171, 231) (438, 498)]]

fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img1)
rect = face1[0]
plt.plot([rect.left(), rect.right(), rect.right(), rect.left(), rect.left()],
         [rect.top(), rect.top(), rect.bottom(), rect.bottom(), rect.top()])
plt.subplot(1,2,2)
plt.imshow(img2)
rect = face2[0]
plt.plot([rect.left(), rect.right(), rect.right(), rect.left(), rect.left()],
         [rect.top(), rect.top(), rect.bottom(), rect.bottom(), rect.top()])
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

在这里插入图片描述

3. 人脸轮廓点检测及可视化

此处直接使用dlib提供的模型文件shape_predictor_68_face_landmarks。下载解压之后,就可以使用以下代码载入
landmark_detector = dlib.shape_predictor(LANDMARK_MODEL_PATH)
关于dlib.shape_predictor更多的使用方法,可以访问官网的检测说明。对输入的这两幅图像检测人脸轮廓点的代码及检测效果如下:

LANDMARK_MODEL_PATH = os.path.expanduser('models/shape_predictor_68_face_landmarks.dat')
landmark_detector = dlib.shape_predictor(LANDMARK_MODEL_PATH)
pts1 = landmark_detector(img1, face1[0])
pts1 = np.array([[pt.x,pt.y] for pt in pts1.parts()])
pts2 = landmark_detector(img2, face2[0])
pts2 = np.array([[pt.x,pt.y] for pt in pts2.parts()])
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img1)
rect = face1[0]
plt.plot([rect.left(), rect.right(), rect.right(), rect.left(), rect.left()],
         [rect.top(), rect.top(), rect.bottom(), rect.bottom(), rect.top()])
plt.scatter(np.squeeze(pts1[:, 0]), np.squeeze(pts1[:, 1]), linewidths=1)
plt.subplot(1,2,2)
plt.imshow(img2)
rect = face2[0]
plt.plot([rect.left(), rect.right(), rect.right(), rect.left(), rect.left()],
         [rect.top(), rect.top(), rect.bottom(), rect.bottom(), rect.top()])
plt.scatter(np.squeeze(pts2[:, 0]), np.squeeze(pts2[:, 1]), linewidths=1)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

在这里插入图片描述

4. 人脸图像变换–仿射变换

现在我们需要将上图中右边的人脸放到左边图像的人脸处,但很显然,两张人脸的大小和位置都不一样。无法直接操作,所以需要进行图像变换,才能将第二幅图中的人脸投影到第一幅中人脸的位置。

现在,我们已经得到了两张人脸上的landmark坐标,那么求解变换就不是一个很难的问题。第一,我们可以在这68个点中选择三个稳定的点构成3个匹配点对,然后利用OpenCV中的接口求解一个仿射变换矩阵。当然,这种方式会导致对轮廓点的利用率很低,而且结果常常不是太稳定。第二,我们可以假设一个特殊的仿射变换 —— 相似变换可以达到目的,那么就能够利用这68个点对完成普氏分析。其流程是,先计算缩放因子,然后求解一个旋转变换,最后再求解平移变换,这样就可以构成一个完整的相似变换,变换的代码与结果如下:

def compute_affine_param(pts1, pts2):
    pts1, pts2 = np.mat(pts1), np.mat(pts2)
    pts1, pts2 = pts1.astype(np.float64), pts2.astype(np.float64)
    # centrallize
    center1 = np.mean(pts1, axis=0)
    center2 = np.mean(pts2, axis=0)
    pts1 -= center1
    pts2 -= center2
    print()
    # normalize
    std1 = np.std(pts1)
    std2 = np.std(pts2)
    pts1 /= std1
    pts2 /= std2
    # compute rotation param by svd
    U, S, V = np.linalg.svd(pts1.transpose() * pts2)
    R = (U * V).transpose()
    # concat affine tranformation matrix
    tmp = (std2/std1)*R
    T = center2.transpose() - tmp*(center1.transpose())
#     print(T, tmp, T.shape, tmp.shape, center1.shape, center2.shape)
    affine = np.vstack([np.hstack([tmp, T]), np.matrix([0.0, 0.0, 1.0])])
    return affine
affine_params = compute_affine_param(pts1, pts2)

# 仿射变换
w_img2 = np.zeros(img1.shape, dtype=img2.dtype)
cv2.warpAffine(img2, affine_params[:2], (w_img2.shape[1], w_img2.shape[0]), 
               dst=w_img2, flags=cv2.WARP_INVERSE_MAP, borderMode=cv2.BORDER_TRANSPARENT)

fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img2)
plt.subplot(1,2,2)
plt.imshow(w_img2)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35

在这里插入图片描述

5. 生成遮罩并直接替换人脸

可以选择人脸的一些部位轮廓点生成遮罩,这里选择两只眼睛、眉毛、鼻子和嘴巴这几部分组成一个遮罩的区域。生成遮罩的算法可以直接调用OpenCV中的cv2.fillConvexPoly()函数完成。在两张原始图像上直接生成的遮罩思的代码与效果如下:

JAW_IDX = list(range(0, 17))
FACE_IDX = list(range(17, 68))
RIGHT_BROW_IDX = list(range(17, 22))
LEFT_BROW_IDX = list(range(22, 27))
NOSE_IDX = list(range(27, 35))
RIGHT_EYE_IDX = list(range(36, 42))
LEFT_EYE_IDX = list(range(42, 48))
MOUTH_IDX = list(range(48, 61))

COVER_IDX = [LEFT_BROW_IDX + RIGHT_EYE_IDX + LEFT_EYE_IDX
             + RIGHT_BROW_IDX + NOSE_IDX + MOUTH_IDX]
def get_mask(img_shape, pts):
    img = np.zeros(img_shape[:2], dtype=np.float64)
    for idx in COVER_IDX:
        cv2.fillConvexPoly(img, cv2.convexHull(pts[idx]), color=1)
    img = np.array([img, img, img]).transpose([1,2,0])
    img = (cv2.GaussianBlur(img, (13, 13), 0) > 0) * 1.0
    img = cv2.GaussianBlur(img, (13, 13), 0)
    return img

mask1 = get_mask(img1.shape, pts1)
mask2 = get_mask(img2.shape, pts2)
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(mask1)
plt.subplot(1,2,2)
plt.imshow(mask2)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

在这里插入图片描述
根据这两个遮罩,可以查看一下图像A和图像B中选中的区域:

fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow((mask1*img1).astype(np.uint8))
plt.subplot(1,2,2)
plt.imshow((mask2*img2).astype(np.uint8))
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在这里插入图片描述
从上图中可以看出,这就是我们需要替换的区域,但是很明显,这样的遮罩是不能够直接使用的,因为人脸的位置没有对齐。所以需要对源人脸图像B的遮罩作上面已经求解的相似变换。然后对比图像A和warp图像B的遮罩,取并集形成一个统一的遮罩,这样就能保证遮罩操作的区域是在两幅图像中相同的位置。
目标图像A的遮罩与统一遮罩的对比效果图如下:

w_mask2 = np.zeros(img1.shape, dtype=img2.dtype)
cv2.warpAffine(mask2, affine_params[:2], (w_img2.shape[1], w_img2.shape[0]),
               dst=w_img2, flags=cv2.WARP_INVERSE_MAP, borderMode=cv2.BORDER_TRANSPARENT)
mix_mask = np.max([mask1, w_mask2], axis=0)
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(mask1)
plt.subplot(1,2,2)
plt.imshow(mix_mask)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

在这里插入图片描述
显示统一的遮罩区域:

fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow((mix_mask*img1).astype(np.uint8))
plt.subplot(1,2,2)
plt.imshow((mix_mask*w_img2).astype(np.uint8))
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在这里插入图片描述
直接替换的效果图如下:

rough_dst_img = img1 * (1.0 - mix_mask) + w_img2 * mix_mask
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img1)
plt.subplot(1,2,2)
plt.imshow(rough_dst_img.astype(np.uint8))
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
从结果可以发现:人脸确实给替换上了,但是脸色就太诡异了。这种状况很常见,因为很难保证任意的两个人脸图像的光照、色相以及对比度等状况完全一致。因此需要对人脸图像B进行颜色调整。

6. 人脸颜色校正

这里使用一种比较简单的颜色平衡方法。矫正图像B的颜色之后,效果如下:

def adjust_color(img1, img2, pts, blur_factor=0.5):
    mean_le = np.mean(pts[LEFT_EYE_IDX], axis=0)
    mean_re = np.mean(pts[RIGHT_EYE_IDX], axis=0)
    blur_degree = int(blur_factor * np.linalg.norm(mean_le - mean_re))
    print(blur_degree)
    if blur_degree % 2 == 0:
        blur_degree += 1
    blur_img1 = cv2.GaussianBlur(img1, (blur_degree, blur_degree), 0)
    blur_img2 = cv2.GaussianBlur(img2, (blur_degree, blur_degree), 0)
    blur_img1 = blur_img1.astype(np.float64)
    blur_img2 = blur_img2.astype(np.float64)
    blur_img2 += (blur_img2 <= 1.0) * 128
    img2 = img2.astype(np.float64)
    return img2 * blur_img1 / blur_img2

adjust_img = adjust_color(img1, w_img2, pts1, blur_factor=0.5)
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img1)
plt.subplot(1,2,2)
plt.imshow(adjust_img.astype(np.uint8))
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

在这里插入图片描述

对颜色矫正之后的图像B使用已经生成的统一遮罩,并得到最终的换脸结果:

dst_img = img1 * (1.0 - mix_mask) + adjust_img * mix_mask
fig = plt.figure(figsize=(9.6, 5.4))
plt.subplot(1,2,1)
plt.imshow(img1)
plt.subplot(1,2,2)
plt.imshow(dst_img.astype(np.uint8))
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
上面换脸的结果整体看起来只能说勉强凑活,比没进行颜色矫正后的结果好了一点。但是还是需要说明,这里使用的颜色平衡的方式仍然非常粗糙。如果想要让融合之后的效果更加逼真,可能需要考虑在这方面花费更多的功夫。

本文所有内容均已经打包好,获取方式如下:

关注下方GZH:【阿旭算法与机器学习】,回复:【换脸】
即可获取本文源码、测试文件等内容,欢迎共同学习交流

如果文章对你有帮助,感谢点赞+关注!
好啦,以上便是换脸的整个流程,小伙伴们一起实操起来吧,欢迎共同学习交流~
小伙伴们有什么想法欢迎评论区留言交流!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/83358
推荐阅读
相关标签
  

闽ICP备14008679号