赞
踩
- ↑↑↑关注后"星标"简说Python
-
- 人人都可以简单入门Python、爬虫、数据分析
- 简说Python推荐作者:千与千寻,北京大学硕士,CSDN优质博主
- 来源:AI学习经历分享
-
- One old watch, like brief python
以上是天龙八部中的灵鹫宫宫主虚竹与鸠摩智进行比武时的武功展示,看得出来残影效果真的给人一种感觉武功深不可测的感觉,那种这种酷炫的残影效果是怎么实现的呢?今天就让我们使用百度开源的深度学习框架飞桨来实现这样的视频残影效果。
在实践历程中我们使用了Paddle框架所集成的Paddlehub的深度学习模型库,Paddlehub中包含了很多的深度学习的预训练模型,包含图像分类,目标检测,GAN图像风格迁移,在本次的视频残影生成中所使用的是deeplabv3p_xception65预训练模型,其原始用途是用来实现视频的语义分割,将其OpenCV的后续处理进行搭配,即可实现我们所说的“残影”了!
算法实现环境:
百度AIstudio深度学习平台,Python3.7,Paddlepaddle1.8.4
步骤1:安装Paddlehub深度学习模型库,使用pip在jupyter notebook进行安装操作。
!pip install paddlehub==1.6.2 -i https://mirror.baidu.com/pypi/simple
步骤2:导入运行需要使用的Python工具包
- import numpy as np //导入数据科学报numpy
- import os
- import paddlehub as hub
- import cv2
- from moviepy.editor import VideoFileClip //导入视频分帧工具
- from tqdm import tqdm //导入终端输出进度条
- import copy
步骤3:指定GPU编号,AIstudio上为单机单卡因此,只存在GPU:0
os.environ["CUDA_VISIBLE_DEVICES"]="0"
步骤4:进行残影效果的推理代码编写与模型的运行:
- def do_seg(module, frame):
- result = module.segmentation(images=[frame],use_gpu=True)
- return result[0]['data']
-
- module = hub.Module(name="deeplabv3p_xception65_humanseg")
-
- originname = "test.mp4" //test.mp4为原始的输入视频
- resultname = "test_result.mp4" //test_result.mp4为处理后的残影视频
- shadowcount = 9
-
- cap = cv2.VideoCapture(originname) //将视频转换为图片流处理
- fps = int(cap.get(cv2.CAP_PROP_FPS))
- width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
- height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
- framecount = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))
-
- fourcc = cv2.VideoWriter_fourcc(*'mp4v')
- out = cv2.VideoWriter(resultname, cv2.VideoWriter_fourcc('M', 'J', 'P', 'G'), fps, (width, height))
-
- tmpres = []
-
- for index in tqdm(range(framecount)):
- ret, frame = cap.read()
- if not ret:
- break
- seg_mask = np.around(do_seg(module,frame) / 255)
- seg_mask3 = np.repeat(seg_mask[:,:,np.newaxis], 3, axis=2)
- background = copy.deepcopy(frame)
- stbackground = copy.deepcopy(frame)
- if len(tmpres) > shadowcount:
- tmpres = tmpres[1:]
- # tmpres.append([copy.deepcopy(seg_mask3), copy.deepcopy(cv2.GaussianBlur(seg_mask3 * background,(9,9),0))])
- tmpres.append([copy.deepcopy(seg_mask3), copy.deepcopy(seg_mask3 * background)])
- thuman = copy.deepcopy(seg_mask3 * background)
- if index > len(tmpres):
- for fi, [t_mask3, t_human] in enumerate(tmpres):
- background = t_human * (fi + 1) / len(tmpres) + t_mask3 * (len(tmpres) - 1 - fi) / len(tmpres) * stbackground + (1 - t_mask3) * background
- result = background.astype(np.uint8)
- out.write(result)
- cap.release()
- out.release()
可以看出,在本项目中调用了deeplabv3p_xception65模型,其原理很简单,是使用deeplabv3p_xception65模型进行图像中的人物与背景进行图像分割分离,在整个的视频流中,将处理当前帧的图片,同时与上一张的图片中使用deeplabv3p_xception65模型进行语义分割所得到人物实体部分进行同时显示播放,从而达到“影片残影”的表现效果!
这是李小龙传奇中第36集,李小龙与独臂人的决斗画面,独臂人是李小龙在全剧中唯一输掉的一个对手,快点开看看,加上“残影效果”后的对决场面效果如何吧!
最后感谢ninetailskim大佬做的开源代码贡献,地址:https://aistudio.baidu.com/aistudio/projectdetail/1334806
- 简说Python
-
-
-
- 长按扫码关注,一起学Python
- 学习更多:
- 整理了我开始分享学习笔记到现在超过250篇优质文章,涵盖数据分析、爬虫、机器学习等方面,别再说不知道该从哪开始,实战哪里找了
- 点个赞,点个在看再走啦~~~
-
-
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。