在上一篇文章《ffmpeg如何将一个视频文件解码为yuv文件》中我们已经使用ffmpeg解码视频为yuv数据文件了,那么yuv数据如何显示呢?
不知道大家是否还记得这张图:
其中一种显示方案就是将YUV转换为rgb,然后通过surfaceView绘制显示。
那么如何将yuv转换成RGB呢?这是有特定的转换公式的,笔者在 YUV图像 一文中有说过。
但是在这里并不用并不用我们手动去转换,我们可以通过调用ffmpeg内置的api很方便地完成转换,而且还可以改变画面的宽高等等。
首先我们创建一个播放器的View继承于SurfaceView:
public class FlyPlayer extends SurfaceView implements SurfaceHolder.Callback,Runnable {
public FlyPlayer(Context context, AttributeSet attrs) {
super(context, attrs);
//设置callback
getHolder().addCallback(this);
}
@Override
public void surfaceCreated(SurfaceHolder surfaceHolder) {
// 开启线程
new Thread(this).start();
}
@Override
public void surfaceChanged(SurfaceHolder surfaceHolder, int i, int i1, int i2) {
}
@Override
public void surfaceDestroyed(SurfaceHolder surfaceHolder) {
}
@Override
public void run() {
playVideo("/sdcard/Download/video.mp4",getHolder().getSurface());
}
public native void playVideo(String videoPath, Surface surface);
}
然后在CMakeLists.txt中增加NDK中自带的android库:
target_link_libraries( #目标库
flyffmpeg-lib
# 把ffmpeg的动态库依赖进来
avformat
avcodec
avutil
avfilter
swscale
swresample
# NDK中的android库
android
# NDK中的log库
log )
最好编写我们的native绘制代码:
//增加native绘制的头文件
#include <android/log.h>
#include <android/native_window.h>
#include <android/native_window_jni.h>
extern "C"
JNIEXPORT void JNICALL
Java_com_flyer_ffmpeg_FlyPlayer_playVideo(JNIEnv *env, jobject thiz, jstring video_path,
jobject surface) {
const char *path = env->GetStringUTFChars(video_path, 0);
AVFormatContext *fmt_ctx;
// 初始化格式化上下文
fmt_ctx = avformat_alloc_context();
// 使用ffmpeg打开文件
int re = avformat_open_input(&fmt_ctx, path, nullptr, nullptr);
if (re != 0) {
LOGE("打开文件失败:%s", av_err2str(re));
return;
}
//探测流索引
re = avformat_find_stream_info(fmt_ctx, nullptr);
if (re < 0) {
LOGE("索引探测失败:%s", av_err2str(re));
return;
}
//寻找视频流索引
int v_idx = av_find_best_stream(
fmt_ctx, AVMEDIA_TYPE_VIDEO, -1, -1, nullptr, 0);
if (v_idx == -1) {
LOGE("获取视频流索引失败");
return;
}
//解码器参数
AVCodecParameters *c_par;
//解码器上下文
AVCodecContext *cc_ctx;
//声明一个解码器
const AVCodec *codec;
c_par = fmt_ctx->streams[v_idx]->codecpar;
//通过id查找解码器
codec = avcodec_find_decoder(c_par->codec_id);
if (!codec) {
LOGE("查找解码器失败");
return;
}
//用参数c_par实例化编解码器上下文,,并打开编解码器
cc_ctx = avcodec_alloc_context3(codec);
// 关联解码器上下文
re = avcodec_parameters_to_context(cc_ctx, c_par);
if (re < 0) {
LOGE("解码器上下文关联失败:%s", av_err2str(re));
return;
}
//打开解码器
re = avcodec_open2(cc_ctx, codec, nullptr);
if (re != 0) {
LOGE("打开解码器失败:%s", av_err2str(re));
return;
}
//数据包
AVPacket *pkt;
//数据帧
AVFrame *frame;
//初始化
pkt = av_packet_alloc();
frame = av_frame_alloc();
//初始化像素格式转换的上下文
SwsContext *vctx = NULL;
int outWidth = 1920;
int outHeight = 1080;
char *rgb = new char[outWidth * outHeight * 4];
char *pcm = new char[48000 * 4 * 2];
//显示窗口初始化
ANativeWindow *nwin = ANativeWindow_fromSurface(env, surface);
ANativeWindow_setBuffersGeometry(nwin, outWidth, outHeight, WINDOW_FORMAT_RGBA_8888);
ANativeWindow_Buffer wbuf;
while (av_read_frame(fmt_ctx, pkt) >= 0) {//持续读帧
// 只解码视频流
if (pkt->stream_index == v_idx) {
//发送数据包到解码器
avcodec_send_packet(cc_ctx, pkt);
//清理
av_packet_unref(pkt);
//这里为什么要使用一个for循环呢?
// 因为avcodec_send_packet和avcodec_receive_frame并不是一对一的关系的
//一个avcodec_send_packet可能会出发多个avcodec_receive_frame
for (;;) {
// 接受解码的数据
re = avcodec_receive_frame(cc_ctx, frame);
if (re != 0) {
break;
} else {
// 将YUV数据转换成RGB数据显示
vctx = sws_getCachedContext(vctx,
frame->width,
frame->height,
(AVPixelFormat) frame->format,
outWidth,
outHeight,
AV_PIX_FMT_RGBA,
SWS_FAST_BILINEAR,
0, 0, 0
);
if (!vctx) {
LOGE("sws_getCachedContext failed!");
} else {
uint8_t *data[AV_NUM_DATA_POINTERS] = {0};
data[0] = (uint8_t *) rgb;
int lines[AV_NUM_DATA_POINTERS] = {0};
lines[0] = outWidth * 4;
int h = sws_scale(vctx,
(const uint8_t **) frame->data,
frame->linesize, 0,
frame->height,
data, lines);
LOGE("sws_scale = %d", h);
if (h > 0) {
// 绘制
ANativeWindow_lock(nwin, &wbuf, 0);
uint8_t *dst = (uint8_t *) wbuf.bits;
memcpy(dst, rgb, outWidth * outHeight * 4);
ANativeWindow_unlockAndPost(nwin);
}
}
}
}
}
}
//关闭环境
avcodec_free_context(&cc_ctx);
// 释放资源
av_frame_free(&frame);
av_packet_free(&pkt);
avformat_free_context(fmt_ctx);
LOGE("播放完毕");
env->ReleaseStringUTFChars(video_path, path);
}
通过注释以及和上文的解码主要代码对比,我们增加的代码并不多,仅仅是增加了像素格式转换以及ANativeWindow初始化以及绘制的代码。大家结合注释不难看懂。
最后如果你对音视频开发感兴趣可扫码关注,笔者在各个知识点学习完毕之后也会使用ffmepg从零开始编写一个多媒体播放器,包括本地播放及网络流播放等等。欢迎关注,后续我们共同探讨,共同进步。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/19847.html