安卓摄像头V4L2获取YUV422转NV12过程示例解析
在使用V4L2获取摄像头数据,配置使用了 V4L2_PIX_FMT_YUYV。 那么摄像头返回的数据就是 YUYV 格式的,属于YUV422打包格式中的一种, 即yuv三个分量按2:1:1(也是4:2:2)的比例分配。
先假设V4L2取出图像的输出分辨率是 6*8,这 YUV422 的空间排布如下
首先解读上面 6x8 像素的YUV空间排布: YUYV格式图像是YUV色彩空间的一种表示方式。 每个像素保留一个Y分量,而UV分量在水平方向上每两个Y分量采样一个U和一个V分量。 一个宏像素(macro-pixel)为4个字节,用于表示2个实际像素(pixel),平均每个像素2个字节。 对比RGB用3个字节表示一个实际像素,刚好可以节约1个字节的空间。
需要转为 NV21 或者 NV12 ,这是安卓下通用的预览标准和编码标准。 NV21 和 NV12 只是UV的排布位置对调即可。 转为 NV21 格式的数据空间排布应该是下面的样式 对比2个图可以看出,只需要把 YUV422 中按 yuv[1], yuv[3] 取出为 U 和 V yuv[5], yuv[7] 取出为 U 和 V 可以看出每隔4个单位就是一次分量的获取。 所以设计算法
#include <stdio.h> static int YUYV_TO_NV12(unsigned char yuyv_in[], unsigned char nv12[]){ int width = 640; // 6 int height = 480; // 8 int ynum = width * height; int i,j,k=0, n; int total_y = height/2; int total_x = width/2; // Y for(i = 0; i < ynum; i++){ nv12[i] = yuyv_in[i<<1]; // i*2 } n = 0; for(i=0; i<total_y; i++){ for(j=0; j<total_x; j++){ //U 保证 uv 能够对准 411模式下 进行隔4行取一次UV 保证匹配 nv12[ynum + n] = yuyv_in[k*4*width + 1 + j*4]; // V nv12[ynum + n-1] = yuyv_in[k*4*width + 3 + j*4]; n = n + 2; } k++; } return 1; } int jni_to_get_nv12(){ unsigned char* g_yuyv = (unsigned char*)malloc(640*480*2); unsigned char* nv12 = (unsigned char*)malloc(640*480*1.5); fill_yuyv_from_camera(g_yuyv); YUYV_TO_NV12(g_yuyv, nv12); free(g_yuyv); free(nv12); return 0; }
上面取样方式需要说明: 因为转化会丢失掉的 25% 的数据,每隔4行抽样一次 UV 数据,才能更接近的还原图像。
转换为 NV12之后数据量减少了0.5,由原来的YUYV 640x480x2 到 640x480x1.5. 大概缺少的数据量如下
这里关于是转化为NV21 还是 NV12 的问题 我实际转化为 NV21 的时候,即按 VUVUVUVU 的顺序进行重新排列, 使用 AMediaCodec 进行编码时,才能准确的编码出视频数据, 如果按 NV12 的 UVUVUV 顺序编排,图像出现严重色差问题。 这里暂时认为是与不同的芯片平台的硬编码方式有关。