2 回答
TA贡献1806条经验 获得超5个赞
OpenCV的话:YUV->IplImage->缩放->转换回YUV可参考:YUV转IPLImage(RGB)或者使用ffmpeg的swscale可以直接实现可参考:FFMPEG 实现 YUV,RGB各种图像原始数据之间的转换(swscale)
TA贡献1776条经验 获得超12个赞
最近在做视频浓缩的项目。以前一直用OpenCV这项神器辅助编程,然而发现opencv在视频的压缩编码和写入封装上有些弊端和小bug。比如压缩比很小,无法写入生成过大的文件,格式封装不完美。所以在下又去寻求另一个开源库ffmpeg的帮助。
讲道理,ffmpeg比opencv学起来更费劲。版本更新换代太快,网上也没用成体系的教程资料,所以只有去大婶们的博客去取经,溜了几圈受益匪浅。不得不说这个库很厉害,有完整的视频编解码方案,解决了之前生成的视频文件太大的问题。
由于用到了opencv封装的一些算法,所以我对每一帧图像使用的是opencv的Mat数据结构。然而ffmpeg编码视频要求输入是YUV,那么问题来了,我怎么把这两个库数据结构对接上?查找了一些资料,不管你是什么数据结构,都得从像素级别处理图像,所以可以从内存地址下功夫。下面是我的代码
[cpp] view plain copy
memcpy(pYuvBuf, Img.data, bufLen*sizeof(unsigned char));
pict->data[0] = pYuvBuf; // Y
pict->data[1] = pYuvBuf + y_size; // U
pict->data[2] = pYuvBuf + y_size * 5 / 4; // V
其中Img为Mat结构。
- 2 回答
- 0 关注
- 2842 浏览
添加回答
举报