美文网首页iOS-音视频
iOS直播内容保存为本地视频

iOS直播内容保存为本地视频

作者: 温开水哈 | 来源:发表于2017-08-15 18:14 被阅读1254次

    前段时间接了个需求,就是将直播内容保存为本地视频,期间踩了一些坑,所以记录一下。

    PS:直播流是 RTMP流,播放器是基于 ffmpeg 的ijkplayer。

    思路其实很简单,播放器已经将视频码流和音频码流封装好,我们只需要将这些封装好的压缩编码数据保存成视频文件就 OK了。

    一些用到的参数

        AVFormatContext *m_ofmt_ctx;        // 用于输出的AVFormatContext结构体
        AVOutputFormat *m_ofmt;
        pthread_mutex_t record_mutex;       // 锁
        int is_record;                      // 是否在录制             
        int record_error;    
        
        int is_first;                       // 第一帧数据
        int64_t start_pts;                  // 开始录制时pts
        int64_t start_dts;                  // 开始录制时dts
    

    1.拷贝参数,打开输出文件,写文件头

    int ffp_start_record(FFPlayer *ffp, const char *file_name)
    {
        assert(ffp);
        VideoState *is = ffp->is;
        
        ffp->m_ofmt_ctx = NULL; 
        ffp->m_ofmt = NULL;
        ffp->is_record = 0; 
        ffp->record_error = 0; 
        
        if (!file_name || !strlen(file_name)) { // 没有路径
            av_log(ffp, AV_LOG_ERROR, "filename is invalid");
            goto end;
        }
        
        if (!is || !is->ic|| is->paused || is->abort_request) { // 没有上下文,或者上下文已经停止
            av_log(ffp, AV_LOG_ERROR, "is,is->ic,is->paused is invalid");
            goto end;
        }
        
        if (ffp->is_record) { // 已经在录制
            av_log(ffp, AV_LOG_ERROR, "recording has started");
            goto end;
        }
        
        // 初始化一个用于输出的AVFormatContext结构体
        avformat_alloc_output_context2(&ffp->m_ofmt_ctx, NULL, NULL, file_name);
        if (!ffp->m_ofmt_ctx) {
            av_log(ffp, AV_LOG_ERROR, "Could not create output context filename is %s\n", file_name);
            goto end;
        }
        ffp->m_ofmt = ffp->m_ofmt_ctx->oformat;
        
        for (int i = 0; i < is->ic->nb_streams; i++) {
            // 对照输入流创建输出流通道
            AVStream *in_stream = is->ic->streams[i];
            AVStream *out_stream = avformat_new_stream(ffp->m_ofmt_ctx, in_stream->codec->codec);
            if (!out_stream) {
                av_log(ffp, AV_LOG_ERROR, "Failed allocating output stream\n");
                goto end;
            }
    
            // 将输入视频/音频的参数拷贝至输出视频/音频的AVCodecContext结构体
            av_log(ffp, AV_LOG_DEBUG, "in_stream->codec;%@\n", in_stream->codec);
            if (avcodec_copy_context(out_stream->codec, in_stream->codec) < 0) {
                av_log(ffp, AV_LOG_ERROR, "Failed to copy context from input to output stream codec context\n");
                goto end;
            }
            
            out_stream->codec->codec_tag = 0;
            if (ffp->m_ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
                out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
            }
        }
        
         av_dump_format(ffp->m_ofmt_ctx, 0, file_name, 1);
        
        // 打开输出文件
        if (!(ffp->m_ofmt->flags & AVFMT_NOFILE)) {
            if (avio_open(&ffp->m_ofmt_ctx->pb, file_name, AVIO_FLAG_WRITE) < 0) {
                av_log(ffp, AV_LOG_ERROR, "Could not open output file '%s'", file_name);
                goto end;
            }
        }
    
        // 写视频文件头
        if (avformat_write_header(ffp->m_ofmt_ctx, NULL) < 0) {
            av_log(ffp, AV_LOG_ERROR, "Error occurred when opening output file\n");
            goto end;
        }
    
        ffp->is_record = 1;
        ffp->record_error = 0;
        pthread_mutex_init(&ffp->record_mutex, NULL);
        
        return 0;
    end:
        ffp->record_error = 1;
        return -1;
    }
    

    ffp_start_record方法,点击开始录制时调用。

    2.保存为视频文件

    int ffp_record_file(FFPlayer *ffp, AVPacket *packet)
    {
        assert(ffp);
        VideoState *is = ffp->is;
        int ret = 0;
        AVStream *in_stream;
        AVStream *out_stream;
        
        if (ffp->is_record) {
            if (packet == NULL) {
                ffp->record_error = 1;
                av_log(ffp, AV_LOG_ERROR, "packet == NULL");
                return -1;
            }
            
            AVPacket *pkt = (AVPacket *)av_malloc(sizeof(AVPacket)); // 与看直播的 AVPacket分开,不然卡屏
            av_new_packet(pkt, 0);
            if (0 == av_packet_ref(pkt, packet)) {
                pthread_mutex_lock(&ffp->record_mutex);
                
                if (!ffp->is_first) { // 录制的第一帧,时间从0开始
                    ffp->is_first = 1;
                    pkt->pts = 0;
                    pkt->dts = 0;
                } else { // 之后的每一帧都要减去,点击开始录制时的值,这样的时间才是正确的
                    pkt->pts = abs(pkt->pts - ffp->start_pts);
                    pkt->dts = abs(pkt->dts - ffp->start_dts);
                }
    
                in_stream  = is->ic->streams[pkt->stream_index];
                out_stream = ffp->m_ofmt_ctx->streams[pkt->stream_index];
                
                // 转换PTS/DTS
                pkt->pts = av_rescale_q_rnd(pkt->pts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
                pkt->dts = av_rescale_q_rnd(pkt->dts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
                pkt->duration = av_rescale_q(pkt->duration, in_stream->time_base, out_stream->time_base);
                pkt->pos = -1;
                      
                // 写入一个AVPacket到输出文件
                if ((ret = av_interleaved_write_frame(ffp->m_ofmt_ctx, pkt)) < 0) {
                    av_log(ffp, AV_LOG_ERROR, "Error muxing packet\n");
                }
                
                av_packet_unref(pkt);
                pthread_mutex_unlock(&ffp->record_mutex);            
            } else {
                av_log(ffp, AV_LOG_ERROR, "av_packet_ref == NULL");
            }
        }
        return ret;
    }
    

    ffp_record_file可放在处理流的函数里面,用ffmpeg的可放在read_thread函数中

    if (!ffp->is_first && pkt->pts == pkt->dts) { // 获取开始录制前dts等于pts最后的值,用于
         ffp->start_pts = pkt->pts;
         ffp->start_dts = pkt->dts;
    }
            
    if (ffp->is_record) { // 可以录制时,写入文件
       if (0 != ffp_record_file(ffp, pkt)) {
           ffp->record_error = 1;
           ffp_stop_record(ffp);
       }
    }
    

    需要注意3点:

    1. 要av_malloc一个AVPacket,不然会影响到播放器的播放。
    2. 因为我们拿的是播放时的压缩数据,开始录制时,可能已经播放一段时间了,取到的是播放时候的 pts 和 dts,所以得记录录制时的初始帧,之后的每一帧都要减去初始帧。(刚开始我也踩坑了,ijk 播放没问题,用别的播放器,开头出现了几秒钟黑屏)
    3. 只有AVStream中的PTS*time_base=真正的时间,我们转换下PTS/DTS。(这里我也没理解透,不转换音视频会不同步)

    3.最后结束录制

    int ffp_stop_record(FFPlayer *ffp)
    {
        assert(ffp);    
        if (ffp->is_record) {
            ffp->is_record = 0;
            pthread_mutex_lock(&ffp->record_mutex);
            if (ffp->m_ofmt_ctx != NULL) {
                av_write_trailer(ffp->m_ofmt_ctx);            
                if (ffp->m_ofmt_ctx && !(ffp->m_ofmt->flags & AVFMT_NOFILE)) {
                    avio_close(ffp->m_ofmt_ctx->pb);
                }
                avformat_free_context(ffp->m_ofmt_ctx);
                ffp->m_ofmt_ctx = NULL;
                ffp->is_first = 0;
            }
            pthread_mutex_unlock(&ffp->record_mutex);
            pthread_mutex_destroy(&ffp->record_mutex);
            av_log(ffp, AV_LOG_DEBUG, "stopRecord ok\n");
        } else {
            av_log(ffp, AV_LOG_ERROR, "don't need stopRecord\n");
        }
        return 0;
    }
    

    结束录制时,调用ffp_stop_record方法,直播内容就保存为本地视频了。

    参考:

    相关文章

      网友评论

        本文标题:iOS直播内容保存为本地视频

        本文链接:https://www.haomeiwen.com/subject/kjlvrxtx.html