美文网首页
ffmpeg 音视频流信息分析延时

ffmpeg 音视频流信息分析延时

作者: 寻路人_1397 | 来源:发表于2019-08-23 11:50 被阅读0次

ffmpeg的两个接口avformat_open_input和avformat_find_stream_info分别用于打开一个流和分析流信息。在初始信息不足的情况下,avformat_find_stream_info接口需要在内部调用read_frame_internal接口读取流数据,然后再分析后,设置核心数据结构AVFormatContext。由于需要读取数据包,avformat_find_stream_info接口会带来很大的延迟,可通过以下几种方案降低该接口的延迟,具体如下:

通过设置AVFormatContext的probesize成员,来限制avformat_find_stream_info接口内部读取的最大数据量,代码如下:

AVFormatContext *fmt_ctx =NULL;

ret = avformat_open_input(&fmt_ctx, url, input_fmt,NULL);

fmt_ctx->probesize =4096;ret = avformat_find_stream_info(fmt_ctx,NULL);

这种方法其实会带来弊端,因为预读长度设置的过小时,在avformat_find_stream_info内部至多只会读取一帧数据,有些情况下,会导致这些数据不足以分析这个流的信息。

通过设置AVFormatContext的flags成员,来设置将avformat_find_stream_info内部读取的数据包不放入AVFormatContext的缓冲区packet_buffer中,代码如下:

AVFormatContext *fmt_ctx =NULL;

ret = avformat_open_input(&fmt_ctx, url, input_fmt,NULL);

fmt_ctx->flags |= AVFMT_FLAG_NOBUFFER;ret = avformat_find_stream_info(fmt_ctx,NULL);

深入avformat_find_stream_info接口内部就可以发现,当设置了AVFMT_FLAG_NOBUFFER选项后,数据包不入缓冲区,相当于在avformat_find_stream_info接口内部读取的每一帧数据只用于分析,不显示,摘avformat_find_stream_info接口中的一段代码即可理解:

if(ic->flags & AVFMT_FLAG_NOBUFFER) {  pkt = &pkt1;}

else{  pkt = add_to_pktbuf(&ic->packet_buffer, &pkt1,                      &ic->packet_buffer_end);

if((ret = av_dup_packet(pkt)) <0)gotofind_stream_info_err;}

当读取的数据包很多时,实际avformat_find_stream_info接口内部尝试解码以及分析的过程也是耗时的(具体没有测试),所以想到一种极端的解决方案,直接跳过avformat_find_stream_info接口,自定义初始化解码环境。

0x02 解决方法

前提条件:发送端的流信息可知。

比如环境的流信息为:

audio: AAC 44100Hz 2 channel 16bit 

video: H264 640*480 30fps

直播流

调用avformat_open_input接口后,不继续调用avformat_find_stream_info接口,具体代码如下:

AVFormatContext *fmt_ctx =NULL;

ret = avformat_open_input(&fmt_ctx, url, input_fmt,NULL);fmt_ctx->probesize =4096;

ret = init_decode(fmt_ctx);

init_decode为自己实现的接口:接口及详细代码如下:

enum{    FLV_TAG_TYPE_AUDIO =0x08,    FLV_TAG_TYPE_VIDEO =0x09,    FLV_TAG_TYPE_META  =0x12,};staticAVStream *create_stream(AVFormatContext *s,intcodec_type){    AVStream *st = avformat_new_stream(s,NULL);if(!st)returnNULL;    st->codec->codec_type = codec_type;returnst;}staticintget_video_extradata(AVFormatContext *s,intvideo_index){inttype, size, flags, pos, stream_type;intret = -1;int64_tdts;boolgot_extradata =false;if(!s || video_index <0|| video_index >2)returnret;for(;; avio_skip(s->pb,4)) {      pos  = avio_tell(s->pb);      type = avio_r8(s->pb);      size = avio_rb24(s->pb);      dts  = avio_rb24(s->pb);      dts |= avio_r8(s->pb) <<24;      avio_skip(s->pb,3);if(0== size)break;if(FLV_TAG_TYPE_AUDIO == type || FLV_TAG_TYPE_META == type) {/*if audio or meta tags, skip them.*/avio_seek(s->pb, size, SEEK_CUR);      }elseif(type == FLV_TAG_TYPE_VIDEO) {/*if the first video tag, read the sps/pps info from it. then break.*/size -=5;          s->streams[video_index]->codec->extradata = xmalloc(size + FF_INPUT_BUFFER_PADDING_SIZE);if(NULL== s->streams[video_index]->codec->extradata)break;memset(s->streams[video_index]->codec->extradata,0, size + FF_INPUT_BUFFER_PADDING_SIZE);memcpy(s->streams[video_index]->codec->extradata, s->pb->buf_ptr +5, size);          s->streams[video_index]->codec->extradata_size = size;          ret =0;          got_extradata =true;      }else{/*The type unknown,something wrong.*/break;      }if(got_extradata)break;  }returnret;}staticintinit_decode(AVFormatContext *s){intvideo_index = -1;intaudio_index = -1;intret = -1;if(!s)returnret;/*

    Get video stream index, if no video stream then create it.

    And audio so on.

    */if(0== s->nb_streams) {        create_stream(s, AVMEDIA_TYPE_VIDEO);        create_stream(s, AVMEDIA_TYPE_AUDIO);        video_index =0;        audio_index =1;    }elseif(1== s->nb_streams) {if(AVMEDIA_TYPE_VIDEO == s->streams[0]->codec->codec_type) {            create_stream(s, AVMEDIA_TYPE_AUDIO);            video_index =0;            audio_index =1;        }elseif(AVMEDIA_TYPE_AUDIO == s->streams[0]->codec->codec_type) {          create_stream(s, AVMEDIA_TYPE_VIDEO);          video_index =1;          audio_index =0;        }    }elseif(2== s->nb_streams) {if(AVMEDIA_TYPE_VIDEO == s->streams[0]->codec->codec_type) {          video_index =0;          audio_index =1;        }elseif(AVMEDIA_TYPE_VIDEO == s->streams[1]->codec->codec_type) {          video_index =1;          audio_index =0;        }    }/*Error. I can't find video stream.*/if(video_index !=0&& video_index !=1)returnret;//Init the audio codec(AAC).s->streams[audio_index]->codec->codec_id = AV_CODEC_ID_AAC;    s->streams[audio_index]->codec->sample_rate =44100;    s->streams[audio_index]->codec->time_base.den =44100;    s->streams[audio_index]->codec->time_base.num =1;    s->streams[audio_index]->codec->bits_per_coded_sample =16;    s->streams[audio_index]->codec->channels =2;    s->streams[audio_index]->codec->channel_layout =3;    s->streams[audio_index]->pts_wrap_bits =32;    s->streams[audio_index]->time_base.den =1000;    s->streams[audio_index]->time_base.num =1;//Init the video codec(H264).s->streams[video_index]->codec->codec_id = AV_CODEC_ID_H264;    s->streams[video_index]->codec->width =640;    s->streams[video_index]->codec->height =480;    s->streams[video_index]->codec->ticks_per_frame =2;    s->streams[video_index]->codec->pix_fmt =0;    s->streams[video_index]->pts_wrap_bits =32;    s->streams[video_index]->time_base.den =1000;    s->streams[video_index]->time_base.num =1;    s->streams[video_index]->avg_frame_rate.den =90;    s->streams[video_index]->avg_frame_rate.num =3;/*Need to change, different condition has different frame_rate. 'r_frame_rate' is new in ffmepg2.3.3*/s->streams[video_index]->r_frame_rate.den =60;    s->streams[video_index]->r_frame_rate.num =2;/* H264 need sps/pps for decoding, so read it from the first video tag.*/ret = get_video_extradata(s, video_index);/*Update the AVFormatContext Info*/s->nb_streams =2;/*empty the buffer.*/s->pb->buf_ptr = s->pb->buf_end;/*    something wrong.TODO:find out the 'pos' means what.    then set it.    */s->pb->pos = s->pb->buf_end;returnret;}

分析:

在init_decode接口执行的操作如下:

经过avformat_open_input接口的调用,AVFormatContext内部有几个流其实是无法预知的,所以需要判断,没有的流需调用create_stream接口创建,并分别设置video_index和audio_index。

根据已知信息,初始化audio和video的流信息。

因为H264解码时需要sps/pps信息,这个信息在接收到的第一个video tag中,通过get_video_extradata接口获取:

3.1avio_*系列接口读到的数据已经是flv格式的,所以判断读到的tag如果是audiotag或者metadatatag时,跳过这个tag数据,继续读。3.2如果是videotag,读取其中的数据至s->streams[video_index]->codec->extradata中,跳出循环。

更新AVFormatContext信息。

将缓冲区置空。

如果video tag是H263编码的,在init_decode接口内部,无需调用get_video_extradata接口即可成功初始化解码环境(需将codec_id设置为AV_CODEC_ID_FLV1)。

对于大多数情况,都可以通过自定义的接口init_decode替代avformat_find_stream_info接口来降低延迟,当然会有很多限制,就看具体项目需求了。

相关文章

  • ffmpeg 音视频流信息分析延时

    ffmpeg的两个接口avformat_open_input和avformat_find_stream_info分...

  • FFmpeg转封装(7)

    音视频文件音视频流抽取 1.FFmpeg抽取音视频文件中的AAC音频流 2.FFmpeg抽取音视频文件中的H.26...

  • Android 利用 FFmpeg 打印码流信息

    一、获取码流信息 我们希望通过 FFmpeg 获取码流如下一些信息: 码流的数量 码流的时间长度 音视频的索引值 ...

  • 完整的直播系统

    ffmpeg 音视频的抽取,剪辑,(WebRTC)ffplayflashplayer (播放RTMP流) 搭建流媒...

  • RTMP 应用框架简介

    1、采集推流器 功能:音视频采集、音视频编码、推流 开源方案:rtmpdump 客户端FFmpeg 推流 (可参考...

  • Ffmpeg音视频常用命令

    播放器架构 同时还有音视频同步,这个是很重要的。 渲染流程 1、FFmpeg常用命令实战 FFmpeg音视频处理流...

  • FFmpeg Jni编译及音视频水印合成初识

    前言 FFmpeg 初识FFmpeg 是一个跨平台的音视频流方案,它提供了录制、转换以及流化音视频的完整解决方案,...

  • FFmpeg 记录

    FFmpeg 学习音视频知识,整理资料,编写技术手册。FFmpeg基础-百度文库FFmpeg源代码简单分析:avf...

  • 一、Mac安装ffmpeg

    参考:iOS 利用FFmpeg 开发音视频流(一)——Mac 系统上编译 FFmpeg 1.安装Xcode Com...

  • ffmpeg常用命令

    FFmpeg处理音视频流程 FFmpeg基本信息查询命令 -versio 显示版本-formats 显示可用的格式...

网友评论

      本文标题:ffmpeg 音视频流信息分析延时

      本文链接:https://www.haomeiwen.com/subject/klbbnttx.html