安卓摄像头V4L2获取YUV422转NV12过程示例解析

在使用V4L2获取摄像头数据,配置使用了 V4L2_PIX_FMT_YUYV。 那么摄像头返回的数据就是 YUYV 格式的,属于YUV422打包格式中的一种, 即yuv三个分量按2:1:1(也是4:2:2)的比例分配。

先假设V4L2取出图像的输出分辨率是 6*8,这 YUV422 的空间排布如下

首先解读上面 6x8 像素的YUV空间排布: YUYV格式图像是YUV色彩空间的一种表示方式。 每个像素保留一个Y分量,而UV分量在水平方向上每两个Y分量采样一个U和一个V分量。 一个宏像素(macro-pixel)为4个字节,用于表示2个实际像素(pixel),平均每个像素2个字节。 对比RGB用3个字节表示一个实际像素,刚好可以节约1个字节的空间。

需要转为 NV21 或者 NV12 ,这是安卓下通用的预览标准和编码标准。 NV21 和 NV12 只是UV的排布位置对调即可。 转为 NV21 格式的数据空间排布应该是下面的样式 对比2个图可以看出,只需要把 YUV422 中按 yuv[1], yuv[3] 取出为 U 和 V yuv[5], yuv[7] 取出为 U 和 V 可以看出每隔4个单位就是一次分量的获取。 所以设计算法

#include <stdio.h>

static int YUYV_TO_NV12(unsigned char yuyv_in[], unsigned char nv12[]){
          
   
	int width = 640; // 6
	int height = 480; // 8
	int ynum = width * height;  
	int i,j,k=0, n; 

	int total_y = height/2;
	int total_x = width/2;

	// Y
	for(i = 0; i < ynum; i++){
          
   
		nv12[i] = yuyv_in[i<<1]; // i*2
    }
	n = 0;
	for(i=0; i<total_y; i++){
          
   
		for(j=0; j<total_x; j++){
          
   
			//U  保证 uv 能够对准 411模式下 进行隔4行取一次UV 保证匹配
			nv12[ynum + n] = yuyv_in[k*4*width + 1 + j*4];
			// V
			nv12[ynum + n-1] = yuyv_in[k*4*width + 3 + j*4];
			n = n + 2;
		}
		k++;
	}
	return 1;
}


int jni_to_get_nv12(){
          
   
	unsigned char* g_yuyv = (unsigned char*)malloc(640*480*2);
	unsigned char* nv12 = (unsigned char*)malloc(640*480*1.5);
	fill_yuyv_from_camera(g_yuyv);
	YUYV_TO_NV12(g_yuyv, nv12);
	free(g_yuyv);
	free(nv12);
	return 0;
}

上面取样方式需要说明: 因为转化会丢失掉的 25% 的数据,每隔4行抽样一次 UV 数据,才能更接近的还原图像。

转换为 NV12之后数据量减少了0.5,由原来的YUYV 640x480x2 到 640x480x1.5. 大概缺少的数据量如下

这里关于是转化为NV21 还是 NV12 的问题 我实际转化为 NV21 的时候,即按 VUVUVUVU 的顺序进行重新排列, 使用 AMediaCodec 进行编码时,才能准确的编码出视频数据, 如果按 NV12 的 UVUVUV 顺序编排,图像出现严重色差问题。 这里暂时认为是与不同的芯片平台的硬编码方式有关。

经验分享 程序员 微信小程序 职场和发展