(三)Android通过ffmpeg解码视频

分享
计算机软件开发 2024-9-26 19:06:26 119 0 来自 中国
播放一个视频,都须要颠末解封装、视频解码、音频解码、音视频同步、视频输出表现和音频输出播放等过程。
先简单先容下视频解码的流程。

解协议:
就是将流媒体协议的数据,剖析为尺度的相应的封装格式数据。音视频在⽹络上传播的时间,经常采⽤各种流媒体协议,比方HTTP,RTMP,或是MMS等等。这些协议在传输视⾳频数据的同时,也会传输⼀些信令数据。这些信令数据包罗对播放的控制(播放,停息,停⽌),大概对⽹络状态的形貌等。解协议的过程中会去撤除信令数据⽽只保存视⾳频数据。比方,采⽤RTMP协议传输的数据,颠末解协议操纵后,输出FLV格式的数据。
解封装:
就是将输⼊的封装格式的数据,分离成为⾳频流压缩编码数据和视频流压缩编码数据。封装格式种类许多,比方MP4,MKV,RMVB,TS,FLV,AVI等等,它的作⽤就是将已经压缩编码的视频数据和⾳频数据按照⼀定的格式放到⼀起。比方,FLV格式的数据,颠末解封装操纵后,输出H.264编码的视频码流和AAC编码的⾳频码流。
解码:
就是将视频/⾳频压缩编码数据,解码成为⾮压缩的视频/⾳频原始数据。⾳频的压缩编码尺度包罗AAC,MP3,AC-3等等,视频的压缩编码尺度则包罗H.264,MPEG2,VC-1等等。解码是整个体系中最告急也是最复杂的⼀个环节。通过解码,压缩编码的视频数据输出成为⾮压缩的颜⾊数据,比方YUV420P,RGB等等;压缩编码的⾳频数据输出成为⾮压缩的⾳频抽样数据,比方PCM数据。
利用FFmpeg进行视频解码


这里须要阐明下一些FFMpeg的告急结构体:
AVFormatContext:解封装功能的结构体,包罗文件名、音视频流、时长、比特率等信息;
AVCodecContext:编解码器上下文,编码息争码时必须用到的结构体,包罗编解码器范例、视频宽高、音频通道数和采样率等信息;
AVCodec:存储编解码器信息的结构体;
AVStream:存储音频或视频流信息的结构体;
AVPacket:存储音频或视频编码数据;
AVFrame:存储音频或视频解码数据(原始数据);
详细代码实现

创建VideoDecoder类,分别实现init、start、release等3个方法。
init为初始化,对一些告急的结构体进行复制大概指向。
start为开始解码循环,读取帧数据
release为开释逻辑,在代码结束时开释。
int videoDecoder::init(const char *url) {    strcpy(m_url, url);    int result = -1;    //1.创建封装格式上下文    m_AVFormatContext = avformat_alloc_context();    //2.打开文件    if (avformat_open_input(&m_AVFormatContext, m_url, nullptr, nullptr) != 0) {        LOGE("avformat_open_input fail");    }    //3.获取音视频流信息    if (avformat_find_stream_info(m_AVFormatContext, nullptr) < 0) {    }    //4.获取视频流索引    m_StreamIndex = av_find_best_stream(m_AVFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, nullptr, 0);    if (m_StreamIndex == -1) {    }    //5.获取解码器参数    AVCodecParameters *codecParameters = m_AVFormatContext->streams[m_StreamIndex]->codecpar;    //6.获取解码器    m_AVCodec = avcodec_find_decoder(codecParameters->codec_id);    if (m_AVCodec == nullptr) {    }    //7.创建解码器上下文    m_AVCodecContext = avcodec_alloc_context3(m_AVCodec);    //将流的参数(codecParameters)复制到解码器中,否则某些流大概无法正常解码    if (avcodec_parameters_to_context(m_AVCodecContext, codecParameters) != 0) {    }    AVDictionary *pAVDictionary = nullptr;    av_dict_set(&pAVDictionary, "buffer_size", "1024000", 0);    av_dict_set(&pAVDictionary, "stimeout", "20000000", 0);    av_dict_set(&pAVDictionary, "max_delay", "30000000", 0);    av_dict_set(&pAVDictionary, "rtsp_transport", "tcp", 0);    //8.打开解码器    result = avcodec_open2(m_AVCodecContext, m_AVCodec, &pAVDictionary);    if (result < 0) {    }    m_Duration = m_AVFormatContext->duration / AV_TIME_BASE * 1000;//us to ms    //创建 AVPacket 存放编码数据    m_Packet = av_packet_alloc();    //创建 AVFrame 存放解码后的数据    m_Frame = av_frame_alloc();    return result;}void videoDecoder::release() {//开释资源,解码完成    if(m_Frame != nullptr) {        av_frame_free(&m_Frame);        m_Frame = nullptr;    }    if(m_Packet != nullptr) {        av_packet_free(&m_Packet);        m_Packet = nullptr;    }    if(m_AVCodecContext != nullptr) {        avcodec_close(m_AVCodecContext);        avcodec_free_context(&m_AVCodecContext);        m_AVCodecContext = nullptr;        m_AVCodec = nullptr;    }    if(m_AVFormatContext != nullptr) {        avformat_close_input(&m_AVFormatContext);        avformat_free_context(m_AVFormatContext);        m_AVFormatContext = nullptr;    }}int videoDecoder::start() {    int result = av_read_frame(m_AVFormatContext, m_Packet);    while (result >= 0) {        //过滤数据,找出对应流,符合才进一步解码        if (m_Packet->stream_index == m_StreamIndex) {            //解码视频,将packet数据交给avcodec行止置惩罚            if (avcodec_send_packet(m_AVCodecContext,m_Packet)!=0){                return -1;            }            while (avcodec_receive_frame(m_AVCodecContext,m_Frame)==0){                //获取到 m_Frame 解码数据,在这里进行格式转换,然后进行渲染而且表现                LOGD("m_Frame pts is %ld",m_Frame->pts);            }        }        av_packet_unref(m_Packet);        result = av_read_frame(m_AVFormatContext, m_Packet);    }}测试代码
checkPermission(object : RequestPermissionListener {            override fun permissionAllGranted() {                PlayLocalVideo("/sdcard/Download/v1080.mp4")            }            override fun permissionDenied(list: MutableList<String>) {            }        })    private external fun PlayLocalVideo(url: String)videoDecoder *vDecoder = new videoDecoder();    const char *url = env->GetStringUTFChars(jUrl, nullptr);    vDecoder->init(url);    vDecoder->start();    vDecoder->release();测试结果

3.png 到这里为止,就已经是解码乐成了。接下来实现怎样将视频的数据,表如今手机上。表现的方法有许多种,OpenGL、ANativeWindow等,这里就先用Android自带的演示一下。
起首在结构中增长一个surfaceView
    <SurfaceView        android:id="@+id/surfaceVideo"        android:layout_width="match_parent"        android:layout_height="0dp"        app:layout_constraintBottom_toBottomOf="parent"        app:layout_constraintTop_toBottomOf="@id/sample_text" />android代码中绑定窗口和转达参数
    binding.surfaceVideo.holder.addCallback(this)    override fun surfaceCreated(holder: SurfaceHolder) {        surface = holder.surface        PlayLocalVideo("/sdcard/Download/v1080.mp4", surface!!)    }    override fun surfaceChanged(holder: SurfaceHolder, format: Int, width: Int, height: Int) {    }    override fun surfaceDestroyed(holder: SurfaceHolder) {    }接下来须要做的就是,怎样把上面解码得到的数据,刷到这个SurfaceView中。在实现之前,须要知道表现的控件支持什么范例的数据。ANativeWindow 仅支持 RGB 范例的图像数据,以是我们还须要利用 libswscale 库将解码后的 YUV 数据转成 RGB 。
起首在初始化的方法里,参加ANativeWindow的初始化。
    //1. 利用 Java 层 SurfaceView 传下来的 Surface 对象,获取 ANativeWindow    m_NativeWindow = ANativeWindow_fromSurface(env, surface);    //表现窗口初始化    ANativeWindow_setBuffersGeometry(m_NativeWindow, m_RenderWidth, m_RenderHeight,                                     WINDOW_FORMAT_RGBA_8888);    m_VideoWidth = m_AVCodecContext->width;    m_VideoHeight = m_AVCodecContext->height;    m_RGBAFrame = av_frame_alloc();    //盘算 Buffer 的巨细    int bufferSize = av_image_get_buffer_size(AV_PIX_FMT_RGBA, m_VideoWidth, m_VideoHeight, 1);    //为 m_RGBAFrame 分配空间    m_FrameBuffer = static_cast<uint8_t *>(av_malloc(bufferSize * sizeof(uint8_t)));    av_image_fill_arrays(m_RGBAFrame->data, m_RGBAFrame->linesize, m_FrameBuffer, AV_PIX_FMT_RGBA,                         m_VideoWidth, m_VideoHeight, 1);    //获取转换的上下文    m_SwsContext = sws_getContext(m_VideoWidth, m_VideoHeight, m_AVCodecContext->pix_fmt,                                  m_VideoWidth, m_VideoHeight, AV_PIX_FMT_RGBA,                                  SWS_BICUBIC, nullptr, nullptr, nullptr);然后在上面读取帧数据的地方,参加转换和表现革新的逻辑
sws_scale(m_SwsContext, m_Frame->data, m_Frame->linesize, 0,              m_VideoHeight, m_RGBAFrame->data, m_RGBAFrame->linesize);    if(m_NativeWindow == nullptr){        LOGE("NativeWindow is null");    return;    }    ANativeWindow_lock(m_NativeWindow, &m_NativeWindowBuffer, nullptr);    uint8_t *dstBuffer = static_cast<uint8_t *>(m_NativeWindowBuffer.bits);    int srcLineSize = m_RGBAFrame->linesize[0];//RGBA    int dstLineSize = m_NativeWindowBuffer.stride * 4;    for (int i = 0; i < m_VideoHeight; ++i) {        memcpy(dstBuffer + i * dstLineSize,               m_FrameBuffer + i * srcLineSize,               srcLineSize);    }    ANativeWindow_unlockAndPost(m_NativeWindow);如许就可以看到视频的播放了。但由于是demo代码,许多细节都没有处置惩罚,比方现实开发的时间,须要在异线程中进行解码、另有得本地增长Log提示、指针的处置惩罚等,制止产生bug。
您需要登录后才可以回帖 登录 | 立即注册

Powered by CangBaoKu v1.0 小黑屋藏宝库It社区( 冀ICP备14008649号 )

GMT+8, 2025-2-2 13:54, Processed in 0.308162 second(s), 35 queries.© 2003-2025 cbk Team.

快速回复 返回顶部 返回列表