当前位置:   article > 正文

【Unity SRP】实现基础的Temporal AA(未完)

unity srp

写在前面

【技术美术图形部分】简述主流及新的抗锯齿技术,花了点时间盘点了一些主流AA技术,再在SRP下的URP管线中实现一下目前游戏用得比较多的TAA。参考Unity的TAA(比较容易懂)以及sienaiwun的实现思路,也参考了很多文章(主要是这位大佬),可以说这次实现其实是对目前能找得到的实现思路的大融合!

本文叙述会尽可能多地体现自己的理解,也算是一次学习。

前置知识

SRP?

随意找了篇介绍SRP的,可以看看:Unity URP/SRP 渲染管线浅入深出【匠】

全称,可编程渲染管线。

相信很多人跟我一样,入门阶段一直是基于Unity内置管线(Build-in)开展学习,直到后面接触到了HDRP(高清渲管线)和URP(通用管线),才发现要学的东西还有好多,,,而且不止这些,甚至还要学习和这些光栅化管线完全不同的光追管线,,,自以为“入门了”但其实人还在坑里呢,现在逃还来得及!!!(不是)

回到正题!其实SRP并不可怕,只需要知道有了它我们可以通过C#脚本调用封装的API来创建自定义管线,渲染流程可自定和修改——就能实现管线定制了,没有Build-in那么死板。URP和HDRP就是两个Unity基于SRP为我们拓展的管线模板,URP难就难在一些函数名称完全被更改,还需要重写函数。

我学习SRP的思路一直都是以实现某种功能为目标,尝试在SRP搭建管线(之前做过URP下实现毛玻璃),以及这一篇SRP下自定义管线实现TAA。刚入门啥都不会的跟着官方阿b发的视频做一次:URP系列教程 | 如何使用Scriptable Renderer Feature来自定义后处理效果

说得挺乱的,总之一句话:SRP和固定管线绝对不是完全割裂的,遇到新管线不需要害怕,学就完事了。

Volume组件

这部分可以看看:如何扩展Unity URP的后处理Volume组件

实现TAA还需要了解URP的Volume组件——URP实现屏幕后处理的核心组件,我们可以通过Volume组件下的Add Override添加屏幕后处理效果

我们如果想实现TAA,也需要添加一个类似“TAA开关”的东西,意味着我们需要去拓展Volume Overide,简单来讲就是再写一个TAA,cs的实现脚本。

TAA实现思路

强烈建议看完这个篇文章:DX12渲染管线(2) - 时间性抗锯齿(TAA)


RenderFeature实现TAA

TemporalAA需要处理静止和动态画面,而动态需要解决残影问题,参考大部分文章的思路,本文也将通过RendererFeature去实现TAA,实现过程的话需要以下三个部分,

  • 处理渲染管线
  • 处理Global Volume
  • Shader实现TAA混合

整体框架如下:

大概思路:首先,我们需要创建TAARendererFeature.csRenderer

再把RendererFeature给Add一下Renderer, 

然后在这个RenderFeature里生成相机抖动值,通过一个TAARenderPass.cs实现最终的画面渲染 。还需要一个专门的抖动相机的Pass,CameraSettingPass.cs,用于改变相机的透视变换矩阵(后面会讲到)。此外还需要给Global Volume加上自定义的TAA,那就又要创建一个TAA.cs文件,作为一个TAA开关。

于是细化的话,步骤主体包括以下脚本

  • 一个RendererFeature类:TAARendererFeature.cs
  • 一个RenderPass类:TAARenderPass.cs
  • 一个RenderPass类:CameraSettingPass.cs
  • 与Global Volume搭接:TAA.cs

对框架做一个简单的概述后,开始从实现静态场景的TAA出发,一点一点写脚本和shader:

1 静态场景

静态场景理解起来很容易,需要在下一帧渲染时将采样上一帧的子像素点偏移,确保每一帧偏移不同位置,最终取全部帧的平均值,整个过程涉及到以下两点,

  • 抖动采样——如何进行采样偏移?
  • 历史帧混合——如何混合历史帧得到平均值?

1.1 抖动采样

采样方法

在采样点个数上,TAA和传统超采样的想法是一致的——生成更多的采样点以获得更加细致的采样效果,但因为是逐帧抖动再取所有的均值,除了每一帧的空间上采样还涉及逐帧的时间上采样,所以采样方法也涉及到两个方面

  • 空间上——我们希望采样点不能太过随机,不然总会有堆叠的情况
  • 时间上——我们希望逐帧也能够均匀分布

最后我选取的采样方法参考了这篇文章:采用Stratified sampler进行空间上的采样(有时间的话还可以拿box和泊松给它对比一下),时间上选择了前8个halton(2,3)进行相机抖动:

截图自 EPIC UE4
截图自 NVIDA TXAA

先看看如何生成Halton序列吧,我并没有单独设一个Halton数列的Class,而是参考大佬思路囊括进了RendererFeature中,浅看一下:

  1. // 抖动用的Halton
  2. // 这里直接照搬大佬设置的函数了,没多余时间细究了orz
  3. private float HaltonSeq(int prime, int index = 1/* NOT! zero-based */)
  4. {
  5. float r = 0.0f;
  6. float f = 1.0f;
  7. int i = index;
  8. while (i > 0)
  9. {
  10. f /= prime;
  11. r += f * (i % prime);
  12. i = (int)Mathf.Floor(i / (float)prime);
  13. }
  14. return r;
  15. }

上述代码的生成Halton序列的方法中i指的就是序列的第几位数,再根据Halton数列计算抖动值,实现是在TAARendererFeature的AddRenderPasses()方法中实现,其中haltonIndex初始值为0:

  1. // 获取Offset值
  2. if(++haltonIndex >= max_SampleCount)
  3. {
  4. haltonIndex = 0;
  5. }
  6. haltonIndex = (haltonIndex + 1) & 1023;
  7. Vector2 offset = new Vector2(
  8. HaltonSeq(2, haltonIndex + 1) - 0.5f,
  9. HaltonSeq(3, haltonIndex + 1) - 0.5f);

【偏题】采样在图形学中是十分常见的部分,随机数影响着样本的分布,我参考的文章中提到了这篇文章:低差异序列(一)- 常见序列的定义及性质,打开新世界大门,这里展示出来,也给自己码一下吧,有机会一定拜读。

Jitter视锥体

我们需要逐帧偏移采样点,这个offset需要发生在几何阶段之后的光栅化阶段,也就是屏幕映射之后。上述的“相机抖动”并不是偏移相机的位置,而是视锥中心动、基于视锥底部偏移一定的Offset,还原到世界空间就是下图:

所以说,我们改动的其实是Project矩阵,搬运其他大佬对偏移如何转化为修改矩阵的解释:

截图自 Unity TAA实现杂记 | Blurred code

实现这个点,我们需要在TAARendererFeature中封装一个变换矩阵函数:

  1. // 变换矩阵
  2. private Matrix4x4 GetJitteredProjectionMatrix(Camera camera, Vector2 offset, Vector2 jitterIntensity)
  3. {
  4. Matrix4x4 originalProjMatrix = camera.nonJitteredProjectionMatrix;
  5. float near = camera.nearClipPlane;
  6. float far = camera.farClipPlane;
  7. Vector2 matrixOffset = offset * new Vector2(1f / camera.pixelWidth, 1f / camera.pixelHeight) * jitterIntensity;
  8. //[row, column]
  9. originalProjMatrix[0, 2] = matrixOffset.x;
  10. originalProjMatrix[1, 2] = matrixOffset.y;
  11. return originalProjMatrix;
  12. }

接下来就是在渲染场景前,通过CommandBuffer.SetViewProjectionMatrices修改相机的VP矩阵了,这部分在CameraSettingPass里实现,

  1. // 修改用于渲染的VP矩阵
  2. cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, m_TAAData.jitteredProj);

这里的m_TAAData是额外的一个用于传递参数的类,既然这里涉及了,那也把TAAData的脚本展示一下:

脚本TAAData.cs

其中jitteredProj就是在TAARendererFeature中定义的,把变换矩阵传递给CameraSettingPass

  1. public class TAAData
  2. {
  3. public Vector2 offset;
  4. public Vector2 lastOffset; // 储存上一帧的Offset
  5. public Matrix4x4 lastProj;
  6. public Matrix4x4 lastView;
  7. public Matrix4x4 jitteredProj;
  8. public Matrix4x4 currentView;
  9. public void Initialize()
  10. {
  11. offset = Vector2.zero;
  12. lastOffset = Vector2.zero;
  13. lastProj = Matrix4x4.identity;
  14. lastView = Matrix4x4.identity;
  15. jitteredProj = Matrix4x4.identity;
  16. currentView = Matrix4x4.identity;
  17. }
  18. }

再把计算得到的Offset值、变换矩阵、传递给TAAData就行了,这个部分还需要结合接下来要说1.2 混合历史帧。

脚本CameraSettingPass.cs

至此可以展示一下整个CameraSettingPass的样子了:

  1. public class CameraSettingPass : ScriptableRenderPass
  2. {
  3. // Profiling上显示
  4. ProfilingSampler m_ProfilingSampler;
  5. string m_ProfilerTag = "CameraSetting";
  6. TAAData m_TAAData;
  7. private TAARendererFeature.TAAData taaData;
  8. internal CameraSettingPass()
  9. {
  10. renderPassEvent = RenderPassEvent.BeforeRenderingOpaques;
  11. }
  12. // 非RenderPass的重写函数,是我们自定义的,用以传递参数
  13. // 这里传递的是TAAData
  14. internal void Setup(TAAData data)
  15. {
  16. m_TAAData = data;
  17. }
  18. public override void Execute(ScriptableRenderContext context, ref RenderingData renderingData)
  19. {
  20. CommandBuffer cmd = CommandBufferPool.Get(m_ProfilerTag);
  21. using (new ProfilingScope(cmd, m_ProfilingSampler))
  22. {
  23. context.ExecuteCommandBuffer(cmd);
  24. cmd.Clear();
  25. CameraData cameraData = renderingData.cameraData;
  26. // 修改用于渲染的VP矩阵
  27. cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, taaData.jitteredProj);
  28. }
  29. // 执行
  30. context.ExecuteCommandBuffer(cmd);
  31. // 回收
  32. CommandBufferPool.Release(cmd);
  33. }
  34. }

脚本TAARendererFeature.cs

1.2 历史帧混合

混合方式

已经实现了相机抖动,最终我们还需要将不同采样点渲染的画面混合,也就是混合N个历史帧。

那么采取什么样的混合方式呢?

最最简单的方法就是直接取均值,(第8帧+前7帧结果)/8,这样开销很大。换一种思路:取当前帧的结果与前一帧的结果按一定比例混合,有递归那味儿了!

那么如何实现?按什么比例?为什么能这样按比例混合?还是搬运其他大佬的解释:

截图自 参考文章

这里混合系数\alpha对效果也是有影响的。

RT储存历史帧

为了储存历史帧,需要一张能长期使用的RT——Motion Vector RT,Motion Vector是一个RGHalf(或RGFloat)的双通道贴图,储存的是当前像素点与上一帧的区别。通过这个RT找到上一帧的当前像素信息,混合。

2 动态场景

静态场景直接supersampling就可以解决了,那动态场景涉及到两个方面,

  • 摄像机移动
  • 场景中物体移动

一旦画面有移动,场景中某点位置会发生变化。如果继续用原屏幕位置混合,会出现问题,这个时候怎么实现抗锯齿?

这牵扯到很多技术,我们一步一步来。

2.1 Reprojection

考虑镜头移动:

这里就要用到Reprojection方法:渲染当前帧(N位置)时需要乘以当前帧的VP矩阵的逆,再乘以上一帧(N-1位置)的VP矩阵,齐次除法变换到上一帧的裁剪空间,就知道当前帧的N位置(UV)在上一帧画面中的位置(lastUV)了。这一步体现在我们最后的TAAShader的fragment shader里:

  1. // Reprojeciton
  2. float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
  3. worldPos /= worldPos.w;
  4. float4 lastPositionCS = mul(_LastViewProj, worldPos);
  5. float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
  6. lastUV = lastUV * 0.5 + 0.5;

消除Jitter影响

还需要还原抖动,不然画面会模糊,这时TAAData里储存的lastOffset就派上用场啦!如下(直接复制的格式乱套了orz):

  1. float2 sampleUV = input.texcoord;
  2. float2 currentOffset = _TAAOffsets.xy; // 上一帧的Offset
  3. float2 lastOffset = _TAAOffsets.zw; // 当前帧Offset
  4. float2 unJitteredUV = sampleUV - 0.5 * currentOffset; // 还原Offset
  5. ...
  6. // 采样当前深度贴图
  7. float depthTexture = _CameraDepthTexture.SampleLevel(sampler_PointClamp, unJitteredUV, 0).r;
  8. float4 positionNDC = float4(sampleUV * 2 - 1, depthTexture, 1);
  9. #if UNITY_UV_STARTS_AT_TOP
  10. positionNDC.y = -positionNDC.y;
  11. #endif
  12. // Reprojeciton
  13. float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
  14. worldPos /= worldPos.w;
  15. float4 lastPositionCS = mul(_LastViewProj, worldPos);
  16. float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
  17. lastUV = lastUV * 0.5 + 0.5;
  18. // 用当前帧在上一帧(累积帧)的位置采样累积帧画面
  19. float3 accumTexture = _AccumTexture.SampleLevel(sampler_LinearClamp, lastUV, 0).rgb;

但是这有个问题,,只是简单的使用上一帧的VP矩阵进行reprojection,仅适用于静态场景下的动态摄像机。对于动态场景下的动态摄像机该怎么办?

2.2 Neighborhood Clipping

镜头移动还要考虑一种情况:遮挡问题,如果不考虑遮挡,会出现残影:

下图解释了这个现象出现的原因: 

由于我们直接混合了历史帧,导致上一帧被遮挡的东西这一帧突然出现,或者这一帧本来应该有的东西被遮挡。

解决这一问题,基于邻近像素色彩的 Neighborhood Clamping 是目前比较主流的 TAA 历史帧约束方案:就是限制历史采样的颜色范围,把历史帧采样结果clamp到一个范围(AABB给它包围起来)。

进一步优化:NIVIDA又提出了更好的方法,Variance clipping,缩小了AABB的尺寸。具体方法详见DX12渲染管线(2) - 时间性抗锯齿(TAA)在 Unity SRP 实现 Temporal Anti-aliasing,理论方面不太想赘述了,,直接上代码:

  1. float3 clip_aabb(float3 aabb_min, float3 aabb_max, float3 avg, float3 input_texel)
  2. {
  3. // clip to center:
  4. float3 p_clip = 0.5 * (aabb_max + aabb_min);
  5. float3 e_clip = 0.5 * (aabb_max - aabb_min) + FLT_EPS;
  6. float3 v_clip = input_texel - p_clip;
  7. float3 v_unit = v_clip / e_clip;
  8. float3 a_unit = abs(v_unit);
  9. float ma_unit = max(a_unit.x, max(a_unit.y, a_unit.z));
  10. if (ma_unit > 1.0){
  11. return p_clip + v_clip / ma_unit;
  12. } else{
  13. return input_texel; // 在AABB里
  14. }
  15. }

Variance clipping:

参考了DX12渲染管线(2) - 时间性抗锯齿(TAA)的思路:

  1. // Variance clip
  2. float3 m1 = 0, m2 = 0;
  3. for(int k=0; k<9; k++) {
  4. float3 c = _MainTex.Sample(sampler_PointClamp, unJitteredUV, kOffsets3x3[k]);
  5. m1 += c;
  6. m2 += c * c;
  7. }
  8. float3 mu = m1 / 9;
  9. // 估算的 sigma
  10. // 关于正确的sigma可以参考:https://gist.github.com/BlurryLight/145131dbacac34345908c529a3488e8f
  11. float3 sigma = sqrt(abs(m2 / 9 - mu * mu));
  12. #define VarianceClipGamma 1.0F
  13. float3 minc = mu - VarianceClipGamma * sigma;
  14. float3 maxc = mu + VarianceClipGamma * sigma;
  15. prevColor = ClipAABB(minc, maxc, prevColor, mu);

其中,

  1. float du = _TextureSize.z;
  2. float dv = _TextureSize.w;
  3. float2 kOffsets3x3[9] =
  4. {
  5. float2(-du, -dv),
  6. float2(0, -dv),
  7. float2(du, -dv),
  8. float2(-du, 0),
  9. float2(0, 0),
  10. float2(du, 0),
  11. float2(-du, dv),
  12. float2(0, dv),
  13. float2(du, dv)
  14. }

2.3 Fluckering 高光闪烁问题

镜头不动的时候,会有高光(高频着色区域)闪烁问题。

这个问题其实我也只是复述了各大文章里提到的,其实自己并没有真的看到过,计划给他实现之后看看能不能贴个闪烁的图出来吧。

参考

大佬文章

在Unity SRP中实现TAA效果 | ZZNEWCLEAR13

在 Unity SRP 实现 Temporal Anti-aliasing - 知乎 (zhihu.com)

Unity Temporal AA的改进与提高 - 知乎 (zhihu.com)

Unity TAA实现杂记 | Blurred code

Raphael2048/AntiAliasing (github.com)

DX12渲染管线(2) - 时间性抗锯齿(TAA) - 知乎 (zhihu.com)

处理方案

EPIC:TAA

在SIGGRAPH2014上分享了UE4的TAA抗锯齿技术:

High Quality Temporal Supersampling

NIVIDA:TXAA

GDC2016上分享了TXAA,是优化版的TAA吧,解决了一些TAA

Slide 1 (nvidia.cn)

PLAYDEAD

GDC Vault - Temporal Reprojection Anti-Aliasing in INSIDE

PlayDead提供了TAA源码

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/102738
推荐阅读
相关标签
  

闽ICP备14008679号