DirectX11 With Windows SDK--29 计算着色器:内存模型、线程同步;实现顺序无关透明度(OIT)
前言
注意:这一章对应项目代码2.x.x版本,持有低版本项目代码的同学请到Github更新一份
由于透明混合在不同的绘制顺序下结果会不同,这就要求绘制前要对物体进行排序,然后再从后往前渲染。但即便是仅渲染一个物体(如上一章的水波),也会出现透明绘制顺序不对的情况,普通的绘制是无法避免的。如果要追求正确的效果,就需要对每个像素位置对所有的像素按深度值进行排序。本章将介绍一种仅DirectX11及更高版本才能实现的顺序无关的透明度(Order-Independent Transparency,OIT),虽然它是用像素着色器来实现的,但是用到了计算着色器里面的一些相关知识。
这一章综合性很强,在学习本章之前需要先了解如下内容:
章节内容 |
---|
11 混合状态 |
12 深度/模板状态、平面镜反射绘制(仅深度/模板状态) |
14 深度测试 |
24 Render-To-Texture(RTT)技术的应用 |
28 计算着色器:波浪(水波) |
深入理解与使用缓冲区资源(结构化缓冲区、字节地址缓冲区) |
学习目标:
- 熟悉内存模型、线程同步
- 熟悉顺序无关透明度
- 熟悉如何在像素着色阶段使用UAV
- 熟悉提前深度/模板测试(early-Z)
DirectX11 With Windows SDK完整目录
欢迎加入QQ群: 727623616 可以一起探讨DX11,以及有什么问题也可以在这里汇报。
DirectCompute 内存模型
DirectCompute提供了三种内存模型:基于寄存器的内存、设备内存和组共享内存。不同的内存模型在内存大小、速度、访问方式等地方有所区别。
基于寄存器的内存:它的访问速度非常快,但是寄存器不仅有数目限制,寄存器指向的资源内部也有大小限制。如纹理寄存器(t#),常量缓冲区寄存器(b#),无序访问视图寄存器(u#),临时寄存器(r#或x#)等。而且我们在使用寄存器时也不是直接指定某一个寄存器来使用,而是通过着色器对象(例如tbuffer,它是在GPU内部的内存,因此访问速度特别快)对应到某一寄存器,然后使用该着色器对象来间接使用该寄存器的。而且这些寄存器是随着着色器编译出来后定死了的,因此寄存器的可用情况取决于当前使用的着色器代码。
下面的代码展示了如何声明一个基于寄存器的内存:
tbuffer tb : register(t0)
{
float weight[256]; // 可以从CPU更新,只读
}
设备内存:通常指的是D3D设备创建出来的资源(如纹理、缓冲区),这些资源可以长期存在,只要引用计数不为0。你可以给这些资源创建很大的内存空间来使用,并且你还可以将它们作为着色器资源或者无序访问资源绑定到寄存器中供使用。当然,这种作为着色器资源的访问速度还是没有直接在寄存器上创建的内存对象来得快,因为它是存储在GPU外部的显存中。尽管这些内存可以通过非常高的内部带宽来访问,但是在请求值和返回值之间也有一个相对较高的延迟。尽管无序访问视图可以用于在设备内存中实现与基于寄存器的内存相同的操作,但当执行频繁的读写操作时,性能将会收到严重影响。此外,由于每个线程都可以通过无序访问视图读取或写入资源中的任何位置,这需要手动同步对资源的访问,也可以使用原子操作,又或者定义一个合理的访问方式避免出现多个线程访问到设备内存的同一个数据。
组共享内存:前面两种内存模型是所有可编程着色阶段都可使用的,但是group shared memory只能在计算着色器使用。它的访问速度比设备内存资源快些,比寄存器慢,但是也有明显的内存限制——每个线程组最多只能分配32KB内存,供内部所有线程使用。组共享的内存必须确定线程将如何与内存交互和使用内存,因此它还必须同步对该内存的访问。这将取决于正在实现的算法,但它通常涉及到前面描述的线程寻址。
这三种类型的内存提供了不同的访问速度和可用的大小,使得它们可以用于与其能力相匹配的不同情况,这也给计算着色器提供了更大的内存操作灵活性。下表则是对内存模型的总结:
内存模型 | 访问速度 | 可用内存 | 使用方式 |
---|---|---|---|
基于寄存器的内存 | 很快 | 小 | 声明寄存器内存对象、全局变量 |
设备内存 | 慢 | 大 | 通过特定视图绑定到渲染管线 |
组共享内存 | 较快 | 较小 | 仅支持计算着色器,在全局变量前面加groupshared |
线程同步
由于大量线程同时运行,并且线程能够通过组内共享内存或通过无序访问视图对应的资源进行交互,因此需要能够同步线程之间的内存访问。与传统的多线程编程一样,许多线程可用读取和写入相同的内存位置,存在写后读(Read After Write,简称RAW)导致内存损坏的危险。如何在不损失GPU并行性带来的性能的情况下还能够高效地同步这么多线程?幸运的是,有几种不同的机制可用用于同步线程组内的线程。
内存屏障(Memory Barriers)
这是一种最高级的同步技术。HLSL提供了许多内置函数,可用于同步线程组中所有线程的内存访问。需要注意的是,它只同步线程组中的线程,而不是整个调度。这些函数有两个不同的属性。第一个是调用函数时线程正在同步的内存类别(设备内存、组内共享内存,还是两者都有),第二个则指定给定线程组中的所有线程是否同步到其执行过程中的同一处。根据这两个属性,衍生出了下面这些不同版本的内置函数:
不带组内同步 | 带组内同步 |
---|---|
GroupMemoryBarrier | GroupMemoryBarrierWithGroupSync |
DeviceMemoryBarrier | DeviceMemoryBarrierWithGroupSync |
AllMemoryBarrier | AllMemoryBarrierWithGroupSync |
这些函数中都会阻止线程继续,直到满足该函数的特定条件位置。其中第一个函数GroupMemoryBarrior()
阻塞线程的执行,直到线程组中的所有线程对组内共享内存的所有写入都完成。这用于确保当线程在组内共享内存中彼此共享数据时,所需的值在被其他线程读取之前有机会写入组内共享内存。这里有一个很重要的区别,即着色器核心执行一个写指令,而那个指令实际上是由GPU的内存系统执行的,并且写入内存中,然后在内存中它将再次对其他线程可用。从开始写入值到完成写入到目标位置有一个可变的时间量,这取决于硬件实现。通过执行阻塞操作,直到这些写操作被保证已经完成,开发人员可以确定不会有任何写后读错误引发的问题。
不过话说了那么多,总得实践一下。个人将双调排序项目中BitonicSort_CS.hlsl
第15行的GroupMemoryBarrierWithGroupSync()
修改为GroupMemoryBarrier()
,执行后发现多次运行程序会出现一例排序结果不一致的情况。因此可以这样判断:GroupMemoryBarrier()仅在线程组内的所有线程组存在线程写入操作时阻塞,因此可能会出现阻塞结束时绝大多数线程完成了共享数据写入,但仍有少量线程甚至还没开始写入共享数据。因此实际上很少能够见到他出场的机会。
然后是GroupMemoryBarriorWithGroupSync()
函数,相比上一个函数,他还阻止那些先到该函数的线程执行,直到所有的线程都到达该函数才能继续。很明显,在所有组内共享内存都加载之前,我们不希望任何线程前进,这使它成为完美的同步方法。
而第二对同步函数也执行类似的操作,只不过它们是在设备内存池上操作。这意味着在继续执行着色器程序前,可以同步通过无序访问视图写入资源的所有挂起内存的写入操作。这对于同步更大数目的内存更为有用,如果所需的共享存储器的大小太大不适合用组内共享内存,则可以将数据存在更大的设备内存的资源中。
第三对同步函数则是一起执行前面两种类型的同步,用于同时存在共享内存和设备内存的访问和同步上。
原子操作
内存屏障对于同步线程中的所有线程非常有用。然而,在许多情况下,还需要较小规模的同步,可能一次只需要几个线程。在其他情况下,线程应该同步的位置可能在同一个执行点,也可能不在同一个执行点(例如,当线程组中的不同线程执行异构任务时)。Shader Model 5引入了许多新的原子操作,可以在线程之间提供更细力度的同步。这样在多线程访问共享资源时,能够确保所有其他线程都不能在统一时间访问相同资源。原子操作保证该操作一旦开始,就一直运行到结束:
原子操作 |
---|
InterlockedAdd |
InterlockedMin |
InterlockedMax |
InterlockedOr |
InterlockedAnd |
InterlockedXor |
InterlockedCompareStore |
InterlockedCompareExchange |
InterlockedExchange |
原子操作也可以用于组内共享内存和资源内存。这里举个使用的例子,如果计算着色器程序希望保留遇到特定数据值的线程数的计数,那么总计数可以初始化为0,并且每个线程可以在组内共享内存(以最快的访问速度)或资源(在调度调用之间持续存在)上执行InterLockedAdd
函数。这些原子操作确保总计数正确递增,而不会被不同线程重写中间值。
每个函数都有其独特的输入要求和操作,因此在选择合适的函数时应参考Direct3D 11文档。像素着色阶段也可以使用这些函数,允许它跨资源同步(注意像素着色器不支持组内共享内存)。
顺序无关透明度
现在让我们再回顾一下正确的透明计算法。对每一个像素来说,若当前的背景色为\(c_0\),然后待渲染的透明像素片元按深度值从大到小排序为\(c_1, c_2, ..., c_n\),透明度为\(a_1, a_2, ..., a_n\)则最终的像素颜色为:
在以往的绘制方式,我们无法控制透明像素片元的绘制顺序,运气好的话还能正确呈现,一旦换了视角就会出现问题。要是场景里各种透明物体交错在一起,基本上无论你怎么换视角都无法呈现正确的混合效果。因此为了实现顺序无关透明度,我们需要预先收集这些像素,然后再进行深度排序,最后再计算出正确的像素颜色。
逐像素使用链表(Per-Pixel Linked Lists)
Direct3D 11硬件为许多新的渲染算法打开了大门,尤其是对PS写入UAV、附着在Buffer的原子计数器的支持,为Per-Pixel Linked Lists带来了可能,它可以实现诸如OIT,间接阴影,动态场景的光线追踪等。
但是,由于着色器只有按值传递,没有指针和引用,在GPU是做不到使用基于指针或引用的链表的。为此,我们使用的数据结构是静态链表,它可以在数组中实现,原本作为next
的指针则变成了下一个元素的索引值。
因为数组是一个连续的内存区域,我们还可以在一个数组中,存放多条静态链表(只要空间足够大)。基于这个思想,我们可以为每个像素创建一个链表,用来收集对应屏幕像素位置的待渲染的所有像素片元。
该算法需要历经两个步骤:
- 创建静态链表。通过像素着色器,利用类似头插法的思想在一个大数组中逐渐形成静态链表。
- 利用静态链表渲染。通过计算着色器,取出当前像素对应的链表元素,进行排序,然后将计算结果写入到渲染目标。
创建静态链表
首先需要强调的是,这一步需要的是像素着色器5.0而不是计算着色器5.0。因为这一步实际上是把原本要绘制到渲染目标的这些像素片元给拦截下来,放到静态链表当中。而要写入Buffer就需要允许像素着色器支持无序访问视图(UAV),只有5.0及更高的版本才能这样做。
此外,我们还需要原子操作的支持,这也需要使用着色器模型5.0。
最后我们还需要创建两个支持读/写的缓冲区,用于绑定到无序访问视图:
- 片元/链接缓冲区:该缓冲区存放的是片元数据和指向下一个元素的索引(即链接),并且由于它需要承担所有像素的静态链表,需要预留足够大的空间来存放这些片元(元素数目通常为渲染目标像素总数的数倍)。因此该算法的一个主要开销是GPU内存空间。其次,片元/链接缓冲区必须要使用结构化缓冲区,而不是多个有类型的缓冲区,因为只有
RWStructuredBuffer
才能够开启隐藏的计数器,而这个计数器又是实现静态链表必不可少的一部分,它用于统计缓冲区已经存放的链表节点数目。 - 首节点偏移缓冲区:该缓冲区的宽度与高度渲染目标的一致,存放的元素是对应渲染目标像素在片元/链接缓冲区对应的静态链表的首节点偏移。而且由于采用的是头插法,指向的通常是当前像素最后一个写入的片元位置。在使用之前我们需要定义-1(若是uint则为0xFFFFFFFF)为达到链表末端,因此每次使用之前都需要初始化链接值为-1.该缓冲区使用的是
RWByteAddressBuffer
,因为它能够支持原子操作。
下图展示了通过像素着色器创建静态链表的过程:
看完这个动图后其实应该基本上能理解了,可能你的脑海里已经有了初步的代码构造,但现在还是需要跟着现有的代码学习才能实现。
首先放出实现该效果需要用到的常量缓冲区、结构体和函数:
// OIT.hlsli
cbuffer CBFrame : register(b6)
{
uint g_FrameWidth; // 帧像素宽度
uint g_FrameHeight; // 帧像素高度
uint2 g_Pad2;
}
struct FragmentData
{
uint Color; // 打包为R8G8B8A8的像素颜色
float Depth; // 深度值
};
struct FLStaticNode
{
FragmentData Data; // 像素片元数据
uint Next; // 下一个节点的索引
};
// 打包颜色
uint PackColorFromFloat4(float4 color)
{
uint4 colorUInt4 = (uint4) (color * 255.0f);
return colorUInt4.r | (colorUInt4.g << 8) | (colorUInt4.b << 16) | (colorUInt4.a << 24);
}
// 解包颜色
float4 UnpackColorFromUInt(uint color)
{
uint4 colorUInt4 = uint4(color, color >> 8, color >> 16, color >> 24) & (0x000000FF);
return (float4) colorUInt4 / 255.0f;
}
一个像素颜色的类型为float4
,要是用它作为数据存储到缓冲区会特别消耗显存,因为最终显示到后备缓冲区的类型为R8G8B8A8_UNORM
或B8G8R8A8_UNORM
,要是能够将其打包成uint
型,就可以节省这部分内存到原来的1/4。
当然,更狠的做法是,如果已知所有透明物体的Alpha值相同(都为0.5),那我们又可以将颜色压缩成R5G6B5_UNORM
,然后再把深度值压缩成16为规格化浮点数,这样一个像素只需要一半的内存空间就能够表达了,当然代价为:颜色和深度都是有损的。
接下来是用于存储像素片元的着色器:
#include "Basic.hlsli"
#include "OIT.hlsli"
// 静态链表创建
// 提前开启深度/模板测试,避免产生不符合深度的像素片元的节点
[earlydepthstencil]
void PS(VertexPosHWNormalTex pIn)
{
// 省略常规的光照部分,最终计算得到的光照颜色为litColor
// ...
// 取得当前像素数目并自递增计数器
uint pixelCount = g_FLBufferRW.IncrementCounter();
// 在StartOffsetBuffer实现值交换
uint2 vPos = (uint2) pIn.posH.xy;
uint startOffsetAddress = 4 * (g_FrameWidth * vPos.y + vPos.x);
uint oldStartOffset;
g_StartOffsetBufferRW.InterlockedExchange(
startOffsetAddress, pixelCount, oldStartOffset);
// 向片元/链接缓冲区添加新的节点
FLStaticNode node;
// 压缩颜色为R8G8B8A8
node.data.color = PackColorFromFloat4(litColor);
node.data.depth = pIn.posH.z;
node.next = oldStartOffset;
g_FLBufferRW[pixelCount] = node;
}
这里面多了许多有趣的部分,需要逐一仔细讲解一番。
首先是UAV寄存器,这里要先留个印象,寄存器索引初值不能从0开始,具体的原因要留到讲C++的某个API时才能说的明白。
然后是RWStructuredBuffer
特有的方法IncrementCounter
,它会返回当前的计数值,并给计数器+1.与之对应的逆操作为DecrementCounter
。它也属于原子操作,因为涉及到大量的线程要访问一个计数器,必须要有相应的同步操作才能保证一个时刻只有一个线程访问该计数器,从而确保安全性。
这里又要再提一遍SV_POSITION
,在作为顶点着色器的输出时,提供的是未经过透视除法的NDC坐标;而作为像素着色器的输入时,它历经了透视除法、视口变换,得到的是对应像素的坐标值。比如说第233行,154列的像素对应的xy坐标为(232.5, 153.5)
,抛弃小数部分正好可以用作同宽高纹理相同位置的索引。
紧接着是RWByteAddressBuffer
的InterlockedExchange
方法:
void InterlockedExchange(
in uint dest, // 目的地址
in uint value, // 要交换的值
out uint original_value // 取出来的原值
);
你可以将其看作是一个写入缓冲区的函数,同时它又吐出原来存储的值。唯一要注意的是一切RWByteAddressBuffer
的原子操作的地址值必须为4的倍数,因为它的读写单位都是32位的uint
。
提前深度/模板测试(Early-Z)
考虑渲染管线流程,在光栅化之后,我们进行像素着色阶段。然后输出合并阶段需要进行模板测试和深度测试,如果有一个测试没有通过就丢弃像素着色的结果。问题在于,像素着色的计算很可能被浪费了。为此,现在的硬件渲染过程会尝试进行优化,将深度/模板测试给提前到光栅化后,像素着色器前。这样如果深度/模板测试不同过,就没必要继续进行像素着色阶段了。
但是某些情况下提前深度/模板测试会失效,比如:
- 在像素着色阶段修改深度值
- 开启Alpha混合
- 关闭深度测试
- 像素着色器使用Alpha Test、discard操作
当然,我们可以在像素着色器前面加上属性[earlydepthstencil]
来强制开启提前深度/模板测试。
实际渲染阶段
现在我们需要让片元/链接缓冲区和首节点偏移缓冲区都作为着色器资源。因为还需要准备一个存放渲染了场景中不透明物体的背景图作为混合初值,同时又还要将结果写入到渲染目标,这样的话我们还需要用到TextureRender
类,存放与后备缓冲区等宽高的纹理,然后将场景中不透明的物体都渲染到此处。
对于顶点着色器来说,因为是渲染整个窗口,我们直接使用全屏三角形绘制:
#include "OIT.hlsli"
// 使用一个三角形覆盖NDC空间
// (-1, 1)________ (3, 1)
// | | /
// (-1,-1)|___|/ (1, -1)
// | /
// (-1,-3)|/
void VS(uint vertexID : SV_VertexID,
out float4 posH : SV_position,
out float2 texcoord : TEXCOORD)
{
float2 grid = float2((vertexID << 1) & 2, vertexID & 2);
float2 xy = grid * float2(2.0f, -2.0f) + float2(-1.0f, 1.0f);
texcoord = grid * float2(1.0f, 1.0f);
posH = float4(xy, 1.0f, 1.0f);
}
而到了像素着色器,我们需要对当前像素对应的链表进行深度排序。由于访问设备内存的效率相对较低,而且排序又涉及到频繁的内存操作,在UAV进行链表排序的效率会很低。更好的做法是将所有像素拷贝到临时寄存器数组,然后再做排序,这样效率会更高,其实也就是在像素着色器开辟一个全局静态数组来存放这些链表节点的元素。由于是静态数组,数组元素固定,开辟较大的空间并不是一个比较好的选择,这不仅涉及到排序的复杂程度,还涉及到显存开销。因此我们需要限制排序的像素片元数目,同时也意味着只需要读取链表的前面几个元素即可,这是一种比较折中的做法。
由于排序算法的好坏也会影响最终的效率,对于小规模的排序,可以使用插入排序,它不仅是原址操作,对于已经有序的序列不会有多余的交换操作。又因为是线程内的排序,不能使用双调排序。
像素着色器的代码如下:
#include "OIT.hlsli"
#define MAX_SORTED_PIXELS 8
static FragmentData g_SortedPixels[MAX_SORTED_PIXELS];
// 使用插入排序,深度值从大到小
void SortPixelInPlace(int numPixels)
{
FragmentData temp;
for (int i = 1; i < numPixels; ++i)
{
for (int j = i - 1; j >= 0; --j)
{
if (g_SortedPixels[j].depth < g_SortedPixels[j + 1].depth)
{
temp = g_SortedPixels[j];
g_SortedPixels[j] = g_SortedPixels[j + 1];
g_SortedPixels[j + 1] = temp;
}
else
{
break;
}
}
}
}
float4 PS(float4 posH : SV_position) : SV_Target
{
// 取出当前像素位置对应的背景色
float4 currColor = g_BackGround.Load(int3(posH.xy, 0));
// 取出当前像素位置链表长度
uint2 vPos = (uint2) posH.xy;
int startOffsetAddress = 4 * (g_FrameWidth * vPos.y + vPos.x);
int numPixels = 0;
uint offset = g_StartOffsetBuffer.Load(startOffsetAddress);
FLStaticNode element;
// 取出链表所有节点
while (offset != 0xFFFFFFFF)
{
// 按当前索引取出像素
element = g_FLBuffer[offset];
// 将像素拷贝到临时数组
g_SortedPixels[numPixels++] = element.data;
// 取出下一个节点的索引,但最多只取出前MAX_SORTED_PIXELS个
offset = (numPixels >= MAX_SORTED_PIXELS) ?
0xFFFFFFFF : element.next;
}
// 对所有取出的像素片元按深度值从大到小排序
SortPixelInPlace(numPixels);
// 使用SrcAlpha-InvSrcAlpha混合
for (int i = 0; i < numPixels; ++i)
{
// 将打包的颜色解包出来
float4 pixelColor = UnpackColorFromUInt(g_SortedPixels[i].color);
// 进行混合
currColor.xyz = lerp(currColor.xyz, pixelColor.xyz, pixelColor.w);
}
// 返回手工混合的颜色
return currColor;
}
HLSL部分结束了,但C++端还有很多棘手的问题要处理。
BasicEffect的变化
在进行OIT像素收集时,需要通过替换像素着色器的手段来完成,因此它需要依附于BasicEffect
。在类中添加了这三个函数:
// OIT Pass1
// 清空OIT缓冲区
void ClearOITBuffers(
ID3D11DeviceContext* deviceContext,
ID3D11UnorderedAccessView* flBuffer,
ID3D11UnorderedAccessView* startOffsetBuffer);
// 顺序无关透明度存储
void SetRenderOITStorage(
ID3D11UnorderedAccessView* flBuffer,
ID3D11UnorderedAccessView* startOffsetBuffer,
uint32_t renderTargetWidth);
// OIT Pass2
// 完成OIT渲染
void RenderOIT(
ID3D11DeviceContext* deviceContext,
ID3D11ShaderResourceView* flBuffer,
ID3D11ShaderResourceView* startOffsetBuffer,
ID3D11ShaderResourceView* input,
ID3D11RenderTargetView* output,
const D3D11_VIEWPORT& vp);
OIT相关资源的初始化如下:
m_pDepthTexture = std::make_unique<Depth2D>(m_pd3dDevice.Get(), m_ClientWidth, m_ClientHeight);
m_pFLStaticNodeBuffer = std::make_unique<StructuredBuffer<FLStaticNode>>(m_pd3dDevice.Get(), m_ClientWidth * m_ClientHeight * 4);
m_pStartOffsetBuffer = std::make_unique<ByteAddressBuffer>(m_pd3dDevice.Get(), m_ClientWidth * m_ClientHeight);
m_pLitTexture = std::make_unique<Texture2D>(m_pd3dDevice.Get(), m_ClientWidth, m_ClientHeight, DXGI_FORMAT_R8G8B8A8_UNORM);
注意要给m_pFLStaticNodeBuffer
提供合适倍数的容量,若设置的太低,则缓冲区可能不足以容纳透明像素片元而渲染异常。
BasicEffect::ClearOITBuffers方法--初始化OIT相关的缓冲区
ID3D11DeviceContext::ClearUnorderedAccessViewUint--使用特定值/向量设置UAV初始值
void ClearUnorderedAccessViewUint(
ID3D11UnorderedAccessView *pUnorderedAccessView, // [In]待清空UAV
const UINT [4] Values // [In]清空值/向量
);
该方法对任何UAV都有效,它是以二进制位的形式来清空值。若为DXGI特定类型,如R16G16_UNORM,则该方法会根据Values的前两个元素取出各自的低16位分别复制到每个数组元素的x分量和y分量。若为原始内存的视图或结构化缓冲区的视图,则只取Values的第一个元素来复制到缓冲区的每一个4字节内。
现在我们需要将这两个缓冲区用全1清空来表示未被使用:
void BasicEffect::ClearOITBuffers(
ID3D11DeviceContext* deviceContext,
ID3D11UnorderedAccessView* flBuffer,
ID3D11UnorderedAccessView* startOffsetBuffer)
{
uint32_t magicValue[1] = { (uint32_t)-1 };
deviceContext->ClearUnorderedAccessViewUint(flBuffer, magicValue);
deviceContext->ClearUnorderedAccessViewUint(startOffsetBuffer, magicValue);
}
BasicEffect::SetRenderOITStorage方法--记录OIT信息
接下来我们需要将UAV绑定到像素着色阶段里,但是设置它的方法实际上是被归类在输出合并阶段。
ID3D11DeviceContext::OMSetRenderTargetsAndUnorderedAccessViews--输出合并阶段设置渲染目标并设置UAV
void ID3D11DeviceContext::OMSetRenderTargetsAndUnorderedAccessViews(
UINT NumRTVs, // [In]渲染目标数
ID3D11RenderTargetView * const *ppRenderTargetViews, // [In]渲染目标视图数组
ID3D11DepthStencilView *pDepthStencilView, // [In]深度/模板视图
UINT UAVStartSlot, // [In]UAV起始槽
UINT NumUAVs, // [In]UAV数目
ID3D11UnorderedAccessView * const *ppUnorderedAccessViews, // [In]无序访问视图数组
const UINT *pUAVInitialCounts // [In]各个无序访问视图的计数器初始值
);
前三个参数和后三个参数应该都没什么问题,但中间的那个参数是一个大坑。对于像素着色器,UAVStartSlot
应当等于已经绑定的渲染目标视图数目。渲染目标和无序访问视图在写入的时候共享相同的资源槽,这意味着必须为UAV指定偏移量,以便于它们放在待绑定的渲染目标视图之后的插槽中。因此在前面的HLSL代码中,u寄存器需要从1开始就是这里来的。
注意:RTV、DSV和UAV不能独立设置,它们都需要同时设置,并且是一次性就要设置完所需的RTV、DSV和UAV。
两个RTV绑定了同一个子资源(也因此共享同一个纹理),或者是两个UAV,又或者是一个UAV和RTV,都会引发冲突。
OMSetRenderTargetsAndUnorderedAccessViews
在以下情况才能运行正常:
当NumRTVs != D3D11_KEEP_RENDER_TARGETS_AND_DEPTH_STENCIL
且NumUAVs != D3D11_KEEP_UNORDERED_ACCESS_VIEWS
时,需要满足下面这些条件:
- NumRTVs <= 8
- UAVStartSlot >= NumRTVs
- UAVStartSlot + NumUAVs <= 8(在Direct3D 11.1为64)
- 所有设置的RTVs和UAVs不能有资源冲突
- DSV的纹理必须匹配RTV的纹理(但不是相同,要在宽高、纹理数组维度上匹配)
当NumRTVs == D3D11_KEEP_RENDER_TARGETS_AND_DEPTH_STENCIL
时,说明OMSetRenderTargetsAndUnorderedAccessViews
只绑定UAVs,需要满足下面这些条件:
- UAVStartSlot + NumUAVs <= 8(在Direct3D 11.1为64)
- 所有设置的UAVs不能有资源冲突
它还会解除绑定下面这些东西:
- 所有在slots >= UAVStartSlot的RTVs
- 所有与待绑定的UAVs发生资源冲突的RTVs
- 所有当前绑定的资源(SOTargets,CS UAVs, SRVs)冲突的UAVs
提供的深度/模板缓冲区会被忽略,并且已经绑定的深度/模板缓冲区并没有被卸下。
当NumUAVs == D3D11_KEEP_UNORDERED_ACCESS_VIEWS
时,说明OMSetRenderTargetsAndUnorderedAccessViews
只绑定RTVs和DSV,需要满足下面这些条件
-
NumRTVs <= 8
-
这些RTVs相互没有资源冲突
-
DSV的纹理必须匹配RTV的纹理(但不是相同,要在宽高、纹理数组维度上匹配)
它还会解除绑定下面这些东西:
-
所有在slots < NumRTVs的UAVs
-
所有与待绑定的RTVs发生资源冲突的UAVs
-
所有当前绑定的资源(SOTargets,CS UAVs, SRVs)冲突的RTVs
提供的UAVStartSlot忽略。
目前这个函数被封装在EffectHelper::Apply
的内部,为了简化调用,现在我们只需要通过EffectHelper::SetUnorderedAccessByName
来简化绑定的流程,它会在现有绑定的RTV和DSV的基础上加上绑定额外的UAV。并且在设置初始counter值后,只有第一次Apply会进行实际的初始化,后续的Apply不会进行初始化以反映正确的使用行为。
BasicEffect::SetRenderOITStorage
现在简化成:
// 初始化阶段创建OITStore Pass
passDesc.nameVS = "BasicVS";
passDesc.namePS = "OITStorePS";
pImpl->m_pEffectHelper->AddEffectPass("OITStore", device, &passDesc);
{
auto pPass = pImpl->m_pEffectHelper->GetEffectPass("OITStore");
pImpl->m_pCurrEffectPass->SetRasterizerState(RenderStates::RSNoCull.Get());
pImpl->m_pCurrEffectPass->SetBlendState(RenderStates::BSTransparent.Get(), nullptr, 0xFFFFFFFF);
pImpl->m_pCurrEffectPass->SetDepthStencilState(RenderStates::DSSNoDepthWrite.Get(), 0);
}
void BasicEffect::SetRenderOITStorage(
ID3D11UnorderedAccessView* flBuffer,
ID3D11UnorderedAccessView* startOffsetBuffer,
uint32_t renderTargetWidth)
{
pImpl->m_pCurrInputLayout = pImpl->m_pVertexPosNormalTexLayout.Get();
pImpl->m_CurrTopology = D3D11_PRIMITIVE_TOPOLOGY_TRIANGLELIST;
pImpl->m_pCurrEffectPass = pImpl->m_pEffectHelper->GetEffectPass("OITStore");
uint32_t initCount[1] = { 0 };
pImpl->m_pEffectHelper->SetUnorderedAccessByName("g_FLBufferRW", flBuffer, initCount);
pImpl->m_pEffectHelper->SetUnorderedAccessByName("g_StartOffsetBufferRW", startOffsetBuffer, initCount);
pImpl->m_pEffectHelper->GetConstantBufferVariable("g_FrameWidth")->SetUInt(renderTargetWidth);
}
上面的代码有两个点要特别注意:
- 因为是透明物体,需要关闭背面消隐
- 因为没有产生实际绘制,需要关闭深度写入但保留深度测试
BasicEffect::RenderOIT方法--将OIT信息渲染到场景
void BasicEffect::RenderOIT(
ID3D11DeviceContext* deviceContext,
ID3D11ShaderResourceView* FLBuffer,
ID3D11ShaderResourceView* startOffsetBuffer,
ID3D11ShaderResourceView* input,
ID3D11RenderTargetView* output,
const D3D11_VIEWPORT& vp)
{
// 会清空之前设置在OM的UAVs
deviceContext->OMSetRenderTargets(1, &output, nullptr);
deviceContext->IASetInputLayout(pImpl->m_pVertexPosNormalTexLayout.Get());
pImpl->m_pEffectHelper->SetShaderResourceByName("g_BackGround", input);
pImpl->m_pEffectHelper->SetShaderResourceByName("g_FLBuffer", FLBuffer);
pImpl->m_pEffectHelper->SetShaderResourceByName("g_StartOffsetBuffer", startOffsetBuffer);
pImpl->m_pCurrEffectPass = pImpl->m_pEffectHelper->GetEffectPass("OITRender");
pImpl->m_pCurrEffectPass->Apply(deviceContext);
deviceContext->IASetPrimitiveTopology(D3D11_PRIMITIVE_TOPOLOGY_TRIANGLELIST);
deviceContext->RSSetViewports(1, &vp);
deviceContext->Draw(3, 0);
// 清空
ID3D11ShaderResourceView* nullSRVs[]{ nullptr };
deviceContext->PSSetShaderResources(pImpl->m_pEffectHelper->MapShaderResourceSlot("g_BackGround"), 1, nullSRVs);
deviceContext->PSSetShaderResources(pImpl->m_pEffectHelper->MapShaderResourceSlot("g_FLBuffer"), 1, nullSRVs);
deviceContext->PSSetShaderResources(pImpl->m_pEffectHelper->MapShaderResourceSlot("g_StartOffsetBuffer"), 1, nullSRVs);
deviceContext->OMSetRenderTargets(0, nullptr, nullptr);
}
场景绘制
现在场景中除了山体、半透明波浪,还有两个半透明相交的立方体。GameApp::DrawScene
方法如下:
void GameApp::DrawScene()
{
// ...
float gray[4] = { 0.75f, 0.75f, 0.75f, 1.0f };
ID3D11RenderTargetView* pRTVs[1] = { m_EnabledOIT ? m_pLitTexture->GetRenderTarget() : GetBackBufferRTV() };
m_pd3dImmediateContext->ClearRenderTargetView(*pRTVs, gray);
m_pd3dImmediateContext->ClearDepthStencilView(m_pDepthTexture->GetDepthStencil(), D3D11_CLEAR_DEPTH | D3D11_CLEAR_STENCIL, 1.0f, 0);
m_pd3dImmediateContext->OMSetRenderTargets(1, pRTVs, m_pDepthTexture->GetDepthStencil());
D3D11_VIEWPORT viewport = m_pCamera->GetViewPort();
m_pd3dImmediateContext->RSSetViewports(1, &viewport);
// ******************
// 1. 绘制不透明对象
//
m_BasicEffect.SetRenderDefault();
m_Land.Draw(m_pd3dImmediateContext.Get(), m_BasicEffect);
// ******************
// 2. 存放透明物体的像素片元
//
if (m_EnabledOIT)
{
m_BasicEffect.ClearOITBuffers(
m_pd3dImmediateContext.Get(),
m_pFLStaticNodeBuffer->GetUnorderedAccess(),
m_pStartOffsetBuffer->GetUnorderedAccess()
);
m_BasicEffect.SetRenderOITStorage(
m_pFLStaticNodeBuffer->GetUnorderedAccess(),
m_pStartOffsetBuffer->GetUnorderedAccess(),
m_ClientWidth);
}
else
{
m_BasicEffect.SetRenderTransparent();
}
m_RedBox.Draw(m_pd3dImmediateContext.Get(), m_BasicEffect);
m_YellowBox.Draw(m_pd3dImmediateContext.Get(), m_BasicEffect);
m_GpuWaves.Draw(m_pd3dImmediateContext.Get(), m_BasicEffect);
// ******************
// 3. 进行透明混合
//
if (m_EnabledOIT)
{
m_BasicEffect.RenderOIT(
m_pd3dImmediateContext.Get(),
m_pFLStaticNodeBuffer->GetShaderResource(),
m_pStartOffsetBuffer->GetShaderResource(),
m_pLitTexture->GetShaderResource(),
GetBackBufferRTV(),
m_pCamera->GetViewPort()
);
}
// ...
}
演示
下面演示了关闭OIT和深度写入、关闭OIT但开启深度写入、开启OIT下的场景渲染效果:
开启OIT对帧数的影响会比较大,可见影响渲染性能的主要因素有:RTT的使用、场景中透明像素的复杂程度、排序算法的选择和n的限制。因此要保证渲染效率,最好是能够减少透明物体的复杂程度、场景中透明物体的数目,或者采用更高效的OIT算法,必要时甚至是避免透明混合。
练习题
- 尝试改动HLSL代码,将颜色压缩成
R5G6B5_UNORM
(规定透明物体Alpha统一为0.5),然后再把深度值压缩成16为规格化浮点数。同时也要改动C++端代码来适配。
参考资料
- DirectX SDK Samples中的OIT
- OIT-and-Indirect-Illumination-using-DX11-Linked-Lists 演示文件
DirectX11 With Windows SDK完整目录
欢迎加入QQ群: 727623616 可以一起探讨DX11,以及有什么问题也可以在这里汇报。