当前位置:   article > 正文

基于Intel AI Analytics Toolkit 的 3D Gaussian Splatting 生成式家装设计优化_3d gaussian splatting是一种用一组2d图像创建3d场景的方法,你只需要一个场景的

3d gaussian splatting是一种用一组2d图像创建3d场景的方法,你只需要一个场景的视


前言

请添加图片描述
你能想象到上面的动图(视频)是由几张图片在几分钟内生成的吗?

设计一张富有创意的家装设计图需要多久?过去,家装设计师需要先根据客户的需求寻找灵感,可能要去看看业内资讯,可能要去了解大师的作品……这一过程往往需要半天或者更多时间。但如今,AIGC时代来临,通过主流的AI绘画软件,例如SD(Stable Diffusion)和MJ(Midjourney)仅1小时即可生成上百张各式风格的图片。

``

如何将这些数据沉淀为数字资产,并以不同形式进行展示呢?
通过三维重建技术,我们可以利用素材与生成式AI转化为生产力,并一站式生成视频、和一些渲染后的视觉场景。
本次Intel 黑客松,我计划使用Intel AI 工具包,分析、实现、优化一个Gaussian Splatting的算法方案。

一、方案概述

通过参考学习3D Gaussian Splatting的论文,使用intel工具包实现一个简单的3D Gaussian Splatting。

生成式模型微调

目前比较主流的方案是ChatGLM-6B+LangChain训练及模型微调。这里采用生成式模型微调的作用是提供一个细分场景AI助手,帮助用户去定义家装行业的数字资产。

三维重建

三维重建是指用相机等传感器拍摄真实世界的物体、场景,并通过计算机视觉技术进行处理,从而得到物体的三维模型。
涉及的主要技术有:多视图立体几何、深度图估计、点云处理、网格重建和优化、纹理贴图、马尔科夫随机场、图割等。
在这里插入图片描述

本文主要介绍通过基于3D-R2N2的点云资产,和基于NeRF 的静态场景资产,然后参考Splatting进行优化

二、技术方案

1.3D-R2N2 介绍

3D-R2N2模型是一种新颖的循环神经网络体系结构,用于实现鲁棒的三维重建。该模型建立在标准LSTM和GR|U的基础上,并由三个部分组成:二维卷积神经网络(2D-CNN)、新型结构3D卷积LSTM(3D-LSTM)和三维反卷积神经网络(3D-DCNN)。3D-R2N2模型的目标是同时执行单视图和多视图3D重建,其主要思想是利用LSTM的能力来保留先前的观测值,并随着更多观测值的增加而逐渐细化输出重建。

2.神经辐射场(NeRF)介绍

在这里插入图片描述
NeRF的研究目的是合成同一场景不同视角下的图像。方法很简单,根据给定一个场景的若干张图片,重构出这个场景的3D表示,然后推理的时候输入不同视角就可以合成(渲染)这个视角下的图像了。

神经辐射场场景表示和可微分渲染过程:

1 通过沿着相机射线采样5D坐标(位置和观看方向)来合成图像;
2 将这些位置输入MLP以产生颜色和体积密度;
3 并使用体积渲染技术将这些值合成图像;
4 该渲染函数是可微分的,因此可以通过最小化合成图像和真实观测图像之间的残差来优化场景表示。

3.Intel AI Analytics Toolkit

Intel ® Extension for PyTorch是一个基于PyTorch的扩展库,用于在Intel处理器上加速机器学习任务。通过使用Intel PyTorch,可以充分利用Intel处理器的并行处理能力和优化指令,从而提高机器学习模型的训练和推理速度。此外,Intel PyTorch还提供了一些高级功能,如混合精度训练和自动微分,以帮助用户更快速地训练大型模型并获得更好的性能。

4.3D Gaussian Splatting

3D Gaussian Splatting是一种用一组2d图像创建3d场景的方法,你只需要一个场景的视频或者一组照片就可以获得这个场景的高质量3d表示,使你可以从任何角度渲染它。它们是一类辐射场方法(如NeRF),但同时训练速度更快(同等质量)、渲染速度更快,并达到更好或相似的质量。3D Gaussian Splatting可以实现无界且完整的场景1080p分辨率下进行高质量实时(≥ 100 fps)视图合成。

三、3D-R2N2生成点云资产

1.模型定义

定义3D-R2N2模型。模型的定义比较复杂,因此在这里我们实现一个简化的版本:
在这里插入图片描述

import torch
import torch.nn as nn

class Simple3DR2N2(nn.Module):
    def __init__(self):
        super(Simple3DR2N2, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3)
        self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)
        self.conv2 = nn.Conv2d(64, 128, kernel_size=5, stride=2, padding=2)
        self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)
        self.fc1 = nn.Linear(128 * 7 * 7, 1024)
        self.fc2 = nn.Linear(1024, 4096)
        self.fc3 = nn.Linear(4096, 32768)  # 输出一个16x16x16的体素网格

    def forward(self, x):
        x = self.pool1(F.relu(self.conv1(x)))
        x = self.pool2(F.relu(self.conv2(x)))
        x = x.view(-1, 128 * 7 * 7)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = torch.sigmoid(self.fc3(x))
        return x.view(-1, 16, 16, 16)

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

2.环境搭建

实际使用我们还是下载一个预训练的3D-R2N2,
首先下载代码

git clone https://github.com/chrischoy/3D-R2N2.git
  • 1

安装anaconda,百度上安装anaconda教程很多就不展开讲解了。

cd 3D-R2N2
conda create -n py3-theano python=3.6
source activate py3-theano
conda install pygpu
pip install -r requirements.txt
  • 1
  • 2
  • 3
  • 4
  • 5

运行官方代码

python demo.py prediction.obj
  • 1

在这里插入图片描述
修改demo,思路过程:

1、附加参数初始化,

2、train_net()修改

3、train_net()中的main()重写

4、train_net()中的train_net(),读取网络类型参数值为cfg.CONST.NETWORK_CLASS,通过函数make_data_processes读取测试数据,调用solver中的train函数

使用intel 拓展pytorch,记得切到自己的conda环境。

pip install torch torchvision
pip install intel_pytorch_extension
  • 1
  • 2

2.图像转换

下面是部分代码

import intel_pytorch_extension as ipex
# 启用 Intel® Extension for PyTorch
torch.backends.quantized.engine = "qnnpack"

# 加载预训练的3D-R2N2模型
model = Simple3DR2N2()
model.load_state_dict(torch.load("3dr2n2model.pth"))
model = model.to(ipex.DEVICE)

# 定义图像预处理
transform = transforms.Compose([
    transforms.Resize(256),
    transforms.CenterCrop(224),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])

# 2D图像转3D模型
def image_to_3d(image_path):
    img = Image.open(image_path)
    img_t = transform(img)
    batch_t = torch.unsqueeze(img_t, 0).to(ipex.DEVICE)
    model.eval()
    with torch.no_grad():
        voxel_grid = model(batch_t)
    return voxel_grid.cpu().numpy()


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

3D-R2N2模型通过结合CNN和RNN,能够实现对多个点云数据进行三维重建,具有较好的效果和泛化性能。
这个过程中:
首先,通过一个三维卷积神经网络(CNN)对输入的多个三维点云数据进行特征提取,得到每个点云数据的特征向量。
然后,将这些特征向量作为输入,递归地传递到一个递归神经网络(RNN)中。
在RNN中,每个点云数据的特点会被逐步地聚合到一起,形成越来越完整的三维模型。
最后,通过一个反卷积层(transpose convolutional layer),将RNN输出的特征图转换为三维网格模型。

四、基于 NeRF 的静态场景资产

nerf-pytorch

这里我们之间使用开源的nerf-pytorch进行开发

(1)搭建环境
创建虚拟环境:

conda create -n nerfpy37 python=3.7
conda activate nerfpy37
  • 1
  • 2

安装:

git clone https://github.com/yenchenlin/nerf-pytorch.git
cd nerf-pytorch
pip install -r requirements.txt
  • 1
  • 2
  • 3

(2) 运行demo

下载数据集 lego和 fern :

bash download_example_data.sh
  • 1

训练一个低分辨率的 lego NeRF:

python run_nerf.py --config configs/lego.txt
  • 1

在这里插入图片描述

训练lego

可以在run_nerf.py里面修改训练次数,默认训练次数为200k次,为了更快出结果,可以减小这个值。


    N_iters = 100000 + 1
    # N_iters = 200000 + 1    
  • 1
  • 2
  • 3

训练:python run_nerf.py --config configs/lego.txt
configs/lego.txt如下:

expname = blender_paper_lego
basedir = ./logs
datadir = ./data/nerf_synthetic/lego
dataset_type = blender

no_batching = True

use_viewdirs = True
white_bkgd = True
lrate_decay = 500

N_samples = 64
N_importance = 128
N_rand = 1024

precrop_iters = 500
precrop_frac = 0.5

half_res = True
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

Intel PyTorch 优化

  • 使用量化模型:nerf-pytorch使用了quantize函数将模型量化到8位整数精度。它减少了模型的大小并提高了推理速度。我们使用Intel Extension for PyTorch的量化库来进一步优化这个过程。
# 加载已经量化过的模型权重  
model = torch.load('quantized_model.pth')  
  
# 使用Intel Extension的量化函数转换模型  
model = iquantize(model, num_bits=8, scale_factor=None)  
  
# 将模型移动到GPU  
model.to(device)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 加速矩阵运算:在计算密集型任务中,在NeRF渲染过程中,优化代码可以显著提高性能。我们可以使用Intel更快的向量化操作
# 将数据类型转换为BFloat16  
x = x.to(BFloat16)  
y = y.to(BFloat16)  
  
# 使用Intel Extension的矩阵乘法函数  
z = matmul(x, y)  
  
# 使用Intel Extension的元素级加法函数  
z = add(z, z)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 使用并行化:除此之外我们可以使用并行化来同时处理多个任务或数据点。
# 启用并行计算模式  
parallel_mode()  
  
# 使用Intel Extension的并行线性层函数  
linear = ParallelLinear(in_features, out_features)  
x = torch.randn(in_features)  
y = linear(x)  
  
# 使用Intel Extension的并行卷积层函数  
conv = ParallelConv2d(in_channels, out_channels, kernel_size)  
x = torch.randn(batch_size, in_channels, height, width)  
y = conv(x)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

五、基于Instant-ngp的开销提升替代方案

Instant-ngp主要用于解决NeRF在对全连接神经网络进行参数化时的效率问题。该方法提出一种编码方式,使得可以使用一个较小规模的网络来实现NeRF同时不会产生精度的损失。该网络由特征向量的多分辨率哈希表实现增强,基于随机梯度下降执行优化。多分辨率结构有助于GPU并行,能够通过消除哈希冲突减少计算。该方法最大的亮点是将NeRF以小时计的时间开销提升到秒级。
在这里插入图片描述
通过使用Instant-ngp替代nerf-pytorch,可以实现工业化场景的开销速度。

六、Gaussian Splatting

tile-based 渲染的投影高斯算法

基于点的方法(即点云)有效地渲染了断开的和非结构化的几何样本。点采样渲染栅格化具有固定大小的非结构化点集,它可以利用本地支持的点类型的图形api或并行软件栅格化。虽然对于底层数据,点样本呈现存在漏洞,导致混叠,并且是严格不连续的。在高质量的基于点的渲染方面的开创性工作通过“spliting”范围大于像素的点来解决这些问题,例如,圆或椭圆盘、椭球体或表面。

基于点的

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/96557?site
推荐阅读
相关标签