处理顶点相关的数据,包括顶点在屏幕的位置(矩阵变换),顶点处的光照计算,纹理坐标等。
顶点着色器的信号图:
5.1 输入信号:Attributes、Uniforms、Samplers (optional)
a. Attributes : 属性的意思,指每一个顶点数据;
b. Uniforms :
b.1. 统一的意思 , 是一个只读全局常量,存储在程序的常量区;
b.2. 当 Vertex Shader 和 Fragment Shader 定义了同名同类型的 Uniform 常量时,此时的 Uniform 常量就变成了全局常量(指向同一块内存区的常量);
c. Samplers (可选的) : 是一个特殊的 Uniforms 保存的是 Texteures(纹理) 数据;
5.2 输出信号: Varying
Varying :
a. 它是 Vertex Shader 与 Fragment Shader 的接口,是为了解决功能性问题(两个 Shader 的信息交互);
b. 储存 Vertex Shader 的输出信息;
c. Vertex Shader 与 Fragment Shader 中必须要有必须要同名同类型的Varying 变量,不然会编译错误;(因为它是两个 Shader 的信息接口啊,不一样还接什么口啊。)
5.3 交互信息: Temporary Variables
Temporary Variables :
a. 指临时变量;
b. 储存 Shader 处理过程中的中间值用的;
c. 声明在 Funtions(函数) 或 Variable(变量) 内部;
5.4 输出的内建变量: gl_Position、gl_FrontFacing、gl_PointSize
a. gl_Position ** ( highp vec4 变量 ) :
就是 Vertex Position,Vertex Shader 的输出值,而且是必须要赋值的变量;只有在 Vertex Shader 中使用才会有效**;
注意:highp vec4, highp ( high precision ) 高精度的意思,是精度限定符; vec4 ( Floating Point Vector ) 浮点向量 , OpenGL ES 的数据类型。
b. gl_PointSize ( mediump float 变量 ) :
告诉 Vertex Shader 栅格化点的尺寸(pixels,像素化),想要改变绘制点的大小就是要用这个变量 只有在 Vertex Shader 中使用才会有效;
注意:mediump , mediump ( medium precision ) 中等精度的意思,是精度限定符;还有最后一个精度限制符是 lowp ( low precision ),低精度的意思。
c. gl_FrontFacing ( bool 变量 ) :
改变渲染物体的 Front Facing 和 Back Facing , 是用于处理物体光照问题的变量,双面光照(3D 物体里外光照)问题的时候才会使用的变量,只能在 Vertex Shader 中进行设置, Fragment Shader 是只读的;
6. Primitive Assembly (图元装配) :
第一步,把 Vertex Shader 处理后的顶点数据组织成 OpenGL ES 可以直接渲染的基本图元:点、线、三角形;
第二步,裁剪 ( Clipping ) ,只保留在渲染区域(视锥体,视觉区域)内的图元;
第二步,剔除 ( Culling ),可通过编程决定剔除前面、后面、还是全部;
【注意】视锥体,实际上是一个三维锥体包含的空间区域,由摄影机和物体的捕捉关系形成;
视锥体
7. Rasterization ( 光栅化 ) :
光栅化的信号图:
作用是,将基本图元(点、线、三角形)转换成二维的片元(Fragment, 包含二维坐标、颜色值、纹理坐标等等属性), 像素化基本图元使其可以在屏幕上进行绘制(显示)。
8. Texture Memory ( 纹理内存 ) :
Texture 就是指保存了图片(位图)的所有颜色的缓存;Texture Memory 就是图片的颜色(像素)内存;每一个嵌入式系统对 Texture Memory 的大小都是有限制的;
-
完整的 iOS 渲染绘制管线图中,向上指向 Vertex Shader 的虚线,意指 Texture Coordinate (纹理坐标)信息是通过程序提供给它的;
-
完整的 iOS 渲染绘制管线图中,指向 Fragment Shader 的实线,因为 Fragment Shader 处理的是光栅化后的数据,即像素数据,而 Texture 本身就是像素数据,所以 Texture Memory 可以直接当成 Fragment Shader 的输入;
9. Fragment Shader ( 片元着色器 ) :
片元着色器信号图:
-
输入信号: Varying、Uniforms、Samples
与 Vertex Shader 的输入是同一个意思,具体请查看 Vertex Shader 处的解释~~~;
-
输入的内建变量:gl_FragCoord、gl_FrontFacing、gl_PointCoord
a. gl_FragCoord ( mediump vec4 只读变量 ) : 是保存窗口相对坐标的 { x, y, z, 1/w } 的变量,z 表示深度 (will be used for the fragment's depth), w 表示旋转;
b. gl_PointCoord ( mediump int 只读变量 ) : 是包含了当前片元原始点位置的二维坐标;点的范围是 [ 0, 1 ] ;
c. gl_FrontFacing : 请查看 Vertex Shader 处的解释;
-
输出信号 (内建变量) : gl_FragColor、gl_FragData (图上没写)
a. gl_FragColor ( mediump vec4 ) : 片元的颜色值;
b. gl_FragData ( mediump vec4 ) : 是一个数组,片元颜色集;
【注意】注:两个输出信号只能同时存在一个,就是 写了 gl_FragColor 就不要写 gl_FragData , 反之亦然;
10. Per-Fragment Operations :
信号图:
-
Pixel ownership test ( 像素归属测试 ) :
判断像素在 Framebuffer 中的位置是不是为当前 OpenGL ES Context 所有,即测试某个像素是否属于当前的 Context 或是否被展示(是否被用户可见);
-
Scissor Test ( 裁剪测试 ) :
判断像素是否在由 glScissor* 定义的裁剪区域内,不在该剪裁区域内的像素就会被丢弃掉;
-
Stencil Test ( 模版测试 ):
将模版缓存中的值与一个参考值进行比较,从而进行相应的处理;
-
Depth Test ( 深度测试 ) :
比较下一个片段与帧缓冲区中的片段的深度,从而决定哪一个像素在前面,哪一个像素被遮挡;
-
Blending ( 混合 ) :
将片段的颜色和帧缓存中已有的颜色值进行混合,并将混合所得的新值写入帧缓存 (FrameBuffer) ;
-
Dithering ( 抖动 ) :
使用有限的色彩让你看到比实际图象更为丰富的色彩显示方式,以缓解表示颜色的值的精度不够大而导致颜色剧变的问题。
11. Render Buffer & Frame Buffer:
关系图:
- Render Buffer ( 渲染缓存 ) :
a. 简称 RBO , Render Buffer Object;
b. 是由程序(Application)分配的 2D 图片缓存;
c. Render Buffer 可以分配和存储颜色(color)、深度(depth)、模版(stectil)值,也可以把这三种值装载到 Frame Buffer 里面;
- Frame Buffer ( 帧缓存 ) :
a. 简称 FBO , Frame Buffer Object;
b. 是颜色、深度、模板缓存装载在 FBO 上所有装载点的合集;
c. 描述颜色、深度、模板的大小和类型的属性状态;
d. 描述 Texture 名称的属性状态;
e. 描述装载在 FBO 上的 Render Buffer Objects ( 渲染缓存对象 ) 的属性状态;
【注意】
FBO API 支持的操作如下:
1. 只能通过 OpenGL ES 命令 ( API ) 创建 FBO 对象;
2. 使用一个 EGL Context 去创建和使用多个 FBO , 即不要为每一个 FBO 对象创建一个正在渲染的上下文(rendering context);
3. 创建 off-screen 的颜色、深度、模板渲染缓存和纹理需要装载在 FBO 上;
4. 通过多个 FBO 来共享颜色、深度、模板缓存;
5. 正确地装载纹理的颜色或深度到 FBO 中,避免复制操作;
12. EAGL API :
官方的是 EGL API 与平台无关,因为它本身是可以进行平台定制的,所以 iOS 下就被 Apple 定制成了 EAGL API 。
EAGL.h
: 里面的核心类是 EAGLContext , 上下文环境;
EAGLDrawable.h
: 用于渲染绘制输出的 EAGLContext 分类;
CAEAGLLayer : iOS 端的渲染窗口寄宿层;
[注]
- EGL API 设计出来的目的就是为了在 OpenGL ES 2 能在窗口系统 (屏幕 ,iOS 是 CAEAGLLayer 类为寄宿层的 View)进行渲染绘制;
- 可以进行 EGL 渲染的前提是:
a. 可以进行显示的设备( iOS 下当然是手机或模拟器 )
b. 创建渲染面(rendering surface), 设备的屏幕 ( on-screen ) 或 像素缓存 ( pixel Buffer ) ( off-screen )
[注] pixel Buffer , 这种 buffer 是不能直接显示的,只能成为渲染面或通过其它 API 分享出去,如: pbuffers 经常被用于 Texture 的 maps , 因为 Texture 本身也是像素嘛;
3.创建渲染上下文 ( rendering context ), 即 OpenGL ES 2 Rendering Context ;