Intra Chroma Prediction
帧内预测依赖于当前宏块的相邻宏块,如果任何一个相邻宏块不可用,那么会直接影响到当前宏块的预测方式。
那么宏块怎么才谓之可用?
满足以下几个条件的相邻宏块为不可用:
-
相邻宏块超出边界,即(x<0 || x>PicWidthInMbs),(y<0 || y>PicHeightInMbs)
-
相邻宏块与当前处理的宏块不在同一slice
-
如果强制要求当前宏块的相邻宏块为intra(constrained_intra_pred_flag = 1),但实际上相邻宏块的编码方式为inter,该相邻宏块就不可用。
当然以上只适用于判断相邻宏块是否可用于intra预测;而对于inter预测,只要判断条件1与2;而在进行deblocking的情况下只需判断条件1。
(以下的"可用"都为"可用于Intra预测")
Intra Chroma Prediction
帧内色度预测有四种预测模式。
1 . Intra_Chroma_DC
DC模式会选取相邻Chroma宏块的相应像素,取像素平均值来预测当前4x4块的像素值。由于预测块大小为4x4,因此相邻块像素值也取四个为一组:
Sumup=3∑x=0Pixel(x,−1)Sumleft=3∑y=0Pixel(−1,y)Sumdefault=1<<(BitDepth−1)
DC模式分为三种情况
- 如果Top与Left可用
Pred4×4(x,y)=(Sumup+Sumleft)>>3
- 否则如果只有Top或者只有Left可用
Pred4×4(x,y)=Sumup>>2 or Pred4×4(x,y)=Sumleft>>2
- 否则Top与Left都不可用
Pred4×4(x,y)=Sumdefault
- 如果Top可用
Pred4×4(x,y)=Sumup>>2
- 否则如果left可用
Pred4×4(x,y)=Sumleft>>2
- 否则
Pred4×4(x,y)=Sumdefault
- 如果left可用
Pred4×4(x,y)=Sumleft>>2
- 否则如果Top可用
Pred4×4(x,y)=Sumup>>2
- 否则
Pred4×4(x,y)=Sumdefault
2 . Intra Chroma Horizon
只有当左相邻宏块的像素点Pixel(-1,y)被标记为可以用于帧内预测时才能采用这种预测方式
Pred(x,y)=Pixel(−1,y)
3 . Intra Chroma Vertical
只有当上方相邻宏块的像素点Pixel(x,-1)被标记为可以用于帧内预测时才能采用这种预测方式
Pred(x,y)=Pixel(x,−1)
4 . Intra Chroma Plane
只有当左相邻宏块像素点Pixel(-1,y)以及上方相邻宏块像素点Pixel(x,-1)都被标记为可以用于Intra预测时才能采用这种预测方式
首先我们来看标准中的两个式子
H=3+xCF∑x=0(x+1)×(Pixel(4+xCF+x,−1)−Pixel(2+xCF−x,−1))V=3+yCF∑y=0(y+1)×(Pixel(−1,4+yCF+y)−Pixel(−1,2+yCF−y))
由于xCF与yCF是YUV格式相关参数,当为0时表示为4:2:0
H=3∑x=0(x+1)×(Pixel(4+x,−1)−Pixel(2−x,−1))V=3∑y=0(y+1)×(Pixel(−1,4+y)−Pixel(−1,2−y))
我们在这里令M=Pixel(4+x,−1)−Pixel(2−x,−1),令x为x轴,M为y轴,H为z轴,得到以下图像
可以看出在x越大的情况下(趋向于宏块两端),如果M(两端像素差)越大,那么得到的值也就越大,因此该参数H表明了Pixel(x,-1)的变化趋势,是变大呢(H值很大),变小呢(H值为负,很小),还是平缓(H值在0附近)。
同理,V在y轴上也是这种情况。
按照上面的说法,这就是一个线性系数,那么我们就可以把H与V做一下调整,归一化得到线性系数b与c
b=(34+29×H)>>6c=(34+29×V)>>6
得到系数后,再确定常量(基准值)就可以得到一个完整的式子了。那么如何确定基准值?这里假设像素是按照左下->右上的方式变化的,即像素值在该方向上线性变化。
那么取中心点为基准值,该基准值为左相邻宏块的最低端与上相邻宏块最右端的平均值
Pred(3,3)=(Pixel(width−1,−1)+Pixel(−1,height−1))>>1
a=16×(Pixel(width−1,−1)+Pixel(−1,height−1))
最后得到预测公式
Pred(x,y)=(a+b×(x−3−xCF)+c×(y−3−yCF)+16)>>5
JM18.6
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 | /*! ************************************************************************ * \brief * Intra prediction of the chrminance layers of one macroblock ************************************************************************ */ void intra_chroma_prediction (Macroblock *currMB, int *mb_up, int *mb_left, int *mb_up_left) { int s, i, j; int uv; int b8, b4; imgpel vline[16]; int mb_available_up; int mb_available_left[2]; int mb_available_up_left; PixelPos pix_c; //!< pixel position p(0,-1) PixelPos pix_d; PixelPos pix_a; //!< pixel positions p(-1, -1..15) Slice *currSlice = currMB->p_Slice; VideoParameters *p_Vid = currSlice->p_Vid; InputParameters *p_Inp = currSlice->p_Inp; int cr_MB_x = p_Vid->mb_cr_size_x; int cr_MB_y = p_Vid->mb_cr_size_y; imgpel **cur_pred = NULL; imgpel *hline = NULL; int yuv = p_Vid->yuv_format - 1; int dc_pred_value_chroma = p_Vid->dc_pred_value_comp[1]; int max_imgpel_value_uv = p_Vid->max_pel_value_comp[1]; static const int block_pos[3][4][4]= //[yuv][b8][b4] { { {0, 1, 2, 3},{0, 0, 0, 0},{0, 0, 0, 0},{0, 0, 0, 0}}, { {0, 1, 2, 3},{2, 3, 2, 3},{0, 0, 0, 0},{0, 0, 0, 0}}, { {0, 1, 2, 3},{1, 1, 3, 3},{2, 3, 2, 3},{3, 3, 3, 3}} }; p_Vid->getNeighbour(currMB, -1, -1, p_Vid->mb_size[IS_CHROMA], &pix_d); p_Vid->getNeighbour(currMB, -1, 0, p_Vid->mb_size[IS_CHROMA], &pix_a); p_Vid->getNeighbour(currMB, 0, -1, p_Vid->mb_size[IS_CHROMA], &pix_c); mb_available_up = pix_c.available; mb_available_up_left = pix_d.available; mb_available_left[0] = mb_available_left[1] = pix_a.available; //强制要求相邻宏块使用帧内预测,否则不可用 if (p_Inp->UseConstrainedIntraPred) { mb_available_up = pix_c.available ? p_Vid->intra_block[pix_c.mb_addr] : 0; mb_available_left[0] = mb_available_left[1] = pix_a.available ? p_Vid->intra_block[pix_a.mb_addr] : 0; mb_available_up_left = pix_d.available ? p_Vid->intra_block[pix_d.mb_addr] : 0; } if (mb_up) *mb_up = mb_available_up; if (mb_left) *mb_left = mb_available_left[0]; if (mb_up_left) *mb_up_left = mb_available_up_left; // compute all chroma intra prediction modes for both U and V for (uv=0; uv<2; uv++) { imgpel **image = p_Vid->enc_picture->imgUV[uv]; imgpel ***curr_mpr_16x16 = currSlice->mpr_16x16[uv + 1]; // DC prediction for (b8=0; b8<p_Vid->num_blk8x8_uv >> 1;b8++) { for (b4 = 0; b4 < 4; b4++) { int block_y = subblk_offset_y[yuv][b8][b4]; int block_x = subblk_offset_x[yuv][b8][b4]; int blk_x = block_x; s = dc_pred_value_chroma; //===== get prediction value ===== switch (block_pos[yuv][b8][b4]) { case 0: //===== TOP LEFT ===== { int s0 = 0, s2 = 0; if (mb_available_up) { int pos_x = pix_c.pos_x + blk_x; int pos_y = pix_c.pos_y; for (i = 0; i < BLOCK_SIZE; i++) s0 += image[pos_y][pos_x++]; } if (mb_available_left[0]) { int pos_x = pix_a.pos_x; int pos_y = pix_a.pos_y + block_y; for (i = 0; i < BLOCK_SIZE;i++) s2 += image[pos_y++][pos_x]; } if (mb_available_up && mb_available_left[0]) s = (s0 + s2 + 4) >> 3; else if (mb_available_up) s = (s0 + 2) >> 2; else if (mb_available_left[0]) s = (s2 + 2) >> 2; } break ; case 1: //===== TOP RIGHT ===== { int s1 = 0, s2 = 0; if (mb_available_up) { int pos_x = pix_c.pos_x + blk_x; int pos_y = pix_c.pos_y; for (i = 0; i < BLOCK_SIZE; i++) s1 += image[pos_y][pos_x++]; } else if (mb_available_left[0]) { int pos_x = pix_a.pos_x; int pos_y = pix_a.pos_y + block_y; for (i = 0; i < BLOCK_SIZE; i++) s2 += image[pos_y++][pos_x]; } if (mb_available_up) s = (s1 +2) >> 2; else if (mb_available_left[0]) s = (s2 +2) >> 2; } break ; case 2: //===== BOTTOM LEFT ===== if (mb_available_left[0]) { int pos_x = pix_a.pos_x; int pos_y = pix_a.pos_y + block_y; int s3 = 0; for (i = 0; i < BLOCK_SIZE; i++) s3 += image[pos_y++][pos_x]; s = (s3 + 2) >> 2; } else if (mb_available_up) { int pos_x = pix_c.pos_x + blk_x; int pos_y = pix_c.pos_y; int s0 = 0; for (i = 0; i < BLOCK_SIZE; i++) s0 += image[pos_y][pos_x++]; s = (s0 + 2) >> 2; } break ; case 3: //===== BOTTOM RIGHT ===== { int s1 = 0, s3 = 0; if (mb_available_up) for (i=blk_x;i<(blk_x+4);i++) s1 += image[pix_c.pos_y][pix_c.pos_x + i]; if (mb_available_left[0]) { int pos_x = pix_a.pos_x; int pos_y = pix_a.pos_y + block_y; for (i = 0; i < BLOCK_SIZE;i++) s3 += image[pos_y++][pos_x]; } if (mb_available_up && mb_available_left[0]) s = (s1 + s3 + 4) >> 3; else if (mb_available_up) s = (s1 + 2) >> 2; else if (mb_available_left[0]) s = (s3 + 2) >> 2; } break ; } //===== prediction ===== cur_pred = curr_mpr_16x16[DC_PRED_8]; for (j = block_y; j < block_y+4; j++) { for (i = block_x; i < block_x+4; i++) { cur_pred[j][i] = (imgpel) s; } } } } // vertical prediction if (mb_available_up) { cur_pred = curr_mpr_16x16[VERT_PRED_8]; hline = &image[pix_c.pos_y][pix_c.pos_x]; for (j=0; j<cr_MB_y; j++) memcpy (cur_pred[j], hline, cr_MB_x * sizeof (imgpel)); } // horizontal prediction if (mb_available_left[0]) { int pos_x = pix_a.pos_x; int pos_y = pix_a.pos_y; cur_pred = curr_mpr_16x16[HOR_PRED_8]; for (i=0; i<cr_MB_y; i++) vline[i] = image[pos_y++][pos_x]; for (j=0; j<cr_MB_y; j++) { int predictor = vline[j]; for (i = 0; i < cr_MB_x; i++) cur_pred[j][i] = (imgpel) predictor; } } // plane prediction if (mb_available_left[0] && mb_available_up && mb_available_up_left) { int cr_x = (cr_MB_x >> 1); int cr_y = (cr_MB_y >> 1); int iaa, iv, ib, ic; int ih = cr_x * (hline[cr_MB_x-1] - image[pix_d.pos_y][pix_d.pos_x]); for (i = 0; i < cr_x - 1; i++) ih += (i + 1)*(hline[cr_x + i] - hline[cr_x - 2 - i]); iv = cr_y * (vline[cr_MB_y-1] - image[pix_d.pos_y][pix_d.pos_x]); for (i = 0; i < cr_y - 1; i++) iv += (i + 1) * (vline[cr_y + i] - vline[cr_y - 2 - i]); if (cr_MB_x == 8) ib = (17 * ih + 2 * cr_MB_x) >> 5; else ib = ( 5 * ih + 2 * cr_MB_x) >> 6; if (cr_MB_y == 8) ic = (17 * iv + 2 * cr_MB_y) >> 5; else ic = ( 5 * iv + 2 * cr_MB_y) >> 6; iaa = 16 * (hline[cr_MB_x - 1] + vline[cr_MB_y - 1]); cur_pred = curr_mpr_16x16[PLANE_8]; iaa += (1 - cr_x) * ib + (1 - cr_y) * ic; for (j = 0; j < cr_MB_y; j++) for (i = 0; i < cr_MB_x; i++) cur_pred[j][i]= (imgpel) iClip1( max_imgpel_value_uv, (iaa + i * ib + j * ic + 16)>>5); } } if (!p_Inp->rdopt) // the rd-opt part does not work correctly (see encode_one_macroblock) { // since ipredmodes could be overwritten => encoder-decoder-mismatches currSlice->rdo_low_intra_chroma_decision(currMB, mb_available_up, mb_available_left, mb_available_up_left); } } |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
2012-12-07 UDA1341声卡传输基本原理