美文网首页
Android音频开发(五)——使用ffmpeg播放音频

Android音频开发(五)——使用ffmpeg播放音频

作者: 又尔enter | 来源:发表于2017-09-13 10:10 被阅读0次
没有妹子你们就不会出现.jpg

上一节,我们做了很多准备工作,把ffmpeg源码编译成so供我们使用,这下我们终于可以来真正的使用它了。请大家使用最新版本你的AS,使用cmake,抛弃以前的mk。

首先,创建一个新的project,记得勾上Include C++ support,然后一路next就ok了。

我们发现main下面多了一个cpp文件夹,这就是你放c/c++源代码的地方,为了用到我们的ffmpeg so文件,我们在main下面创建jniLibs,把编好的lib里面的so放进去。

PS:之前我们编译的平台是armeabi,如果你想要x86可修改脚本文件中相关配置
111.jpg

其中main,sdl不是ffmpeg编译的so,大家不必在意。然后把include放进cpp文件夹,这些是需要的头文件,

然后在cpp目录下创建play_audio.cpp
a3.png

#include <jni.h>
#include "log.h"

extern "C" {
#include "AudioDevice.h"
}

//注意加extern "C",否则将按照C++的编译方法吧方法名改了,则java层找不到相应的方法
extern "C"
JNIEXPORT jint JNICALL
Java_com_dy_ffmpeg_PlayMusicActivity_play(JNIEnv *env, jobject instance, jstring url_) {
    const char *url = env->GetStringUTFChars(url_, 0);

    LOGD("play");
    int code = play(url);
    return code;
}

extern "C"
JNIEXPORT jint JNICALL
Java_com_dy_ffmpeg_PlayMusicActivity_stop(JNIEnv *env, jobject instance) {

    // TODO
    LOGD("stop");
    int code = shutdown();
    return code;
}

下面贴出关键代码

/**
 * 初始化操作,创建解码器
 * @param file_name  文件名
 * @param rate 采样率
 * @param channel 通道数
 * @return
 */
int init(const char *file_name, int *rate, int *channel) {

    //初始化
    av_register_all();
    aFormatCtx = avformat_alloc_context();


    //读取输入的音频文件地址
    if (avformat_open_input(&aFormatCtx, file_name, NULL, NULL) != 0) {
        LOGE("文件%s不存在!\n", file_name);
        return -1; // Couldn't open file
    }

    //查找文件的流信息
    if (avformat_find_stream_info(aFormatCtx, NULL) < 0) {
        LOGE("文件流信息错误\n");
        return -1;
    }

    //找到第一个音频帧
    int i;
    audioStream = -1;
    for (i = 0; i < aFormatCtx->nb_streams; i++) {
        if (aFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_AUDIO) {
            audioStream = i;
            break;
        }
    }
    if (audioStream == -1) {
        LOGE("音频流未找到!");
        return -1;
    }


    aCodecCtx = aFormatCtx->streams[audioStream]->codec;

    //获取相应音频流的解码器
    AVCodec *aCodec = avcodec_find_decoder(aCodecCtx->codec_id);
    if (!aCodec) {
        fprintf(stderr, "不支持的音频格式!\n");
        return -1;
    }

    if (avcodec_open2(aCodecCtx, aCodec, NULL) < 0) {
        LOGE("无法打开解码器!\n");
        return -1; // Could not open codec
    }
    //分配一个帧指针,指向解码后的原始帧
    aFrame = av_frame_alloc();

    // 设置格式转换
    swr = swr_alloc();
    //输入通道数
    av_opt_set_int(swr, "in_channel_layout", aCodecCtx->channel_layout, 0);
    //输出通道数
    av_opt_set_int(swr, "out_channel_layout", aCodecCtx->channel_layout, 0);
    //输入采样率
    av_opt_set_int(swr, "in_sample_rate", aCodecCtx->sample_rate, 0);
    //输出采样率
    av_opt_set_int(swr, "out_sample_rate", aCodecCtx->sample_rate, 0);
    //输入采样位宽
    av_opt_set_sample_fmt(swr, "in_sample_fmt", aCodecCtx->sample_fmt, 0);
    //输出采样位宽,16bit
    av_opt_set_sample_fmt(swr, "out_sample_fmt", AV_SAMPLE_FMT_S16, 0);
    swr_init(swr);

    // 分配PCM数据缓冲区大小
    outputBufferSize = 8196;
    outputBuffer = (uint8_t *) malloc(sizeof(uint8_t) * outputBufferSize);

    // 返回采样率和通道数
    *rate = aCodecCtx->sample_rate;
    *channel = aCodecCtx->channels;
    return 0;
}
// 获取PCM数据, 自动回调获取
int getPCM(void **pcm, size_t *pcmSize) {
    LOGD("getPcm");
    while (av_read_frame(aFormatCtx, &packet) >= 0) {

        int frameFinished = 0;
        // Is this a packet from the audio stream?
        if (packet.stream_index == audioStream) {
            avcodec_decode_audio4(aCodecCtx, aFrame, &frameFinished, &packet);

            if (frameFinished) {
                // data_size为音频数据所占的字节数
                int data_size = av_samples_get_buffer_size(
                        aFrame->linesize, aCodecCtx->channels,
                        aFrame->nb_samples, aCodecCtx->sample_fmt, 1);

                // 这里内存再分配可能存在问题
                if (data_size > outputBufferSize) {
                    outputBufferSize = data_size;
                    outputBuffer = (uint8_t *) realloc(outputBuffer,
                                                       sizeof(uint8_t) * outputBufferSize);
                }

                // 音频格式转换
                swr_convert(swr, &outputBuffer, aFrame->nb_samples,
                            (uint8_t const **) (aFrame->extended_data),
                            aFrame->nb_samples);

                // 返回pcm数据
                *pcm = outputBuffer;
                *pcmSize = data_size;
                return 0;
            }
        }
    }
    return -1;
}

然后是activity

package com.dy.ffmpeg;

import android.os.Bundle;
import android.os.Environment;
import android.support.v7.app.AppCompatActivity;
import android.view.View;
import android.widget.Button;

public class PlayMusicActivity extends AppCompatActivity implements View.OnClickListener {
    static {
        System.loadLibrary("play_audio");
    }

    private Button play;
    private Button stop;
    private String url;

    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.activity_play_music);
        initView();
    }

    private void initView() {
        play = (Button) findViewById(R.id.play);
        stop = (Button) findViewById(R.id.stop);

        play.setOnClickListener(this);
        stop.setOnClickListener(this);
        //获取文件地址,注意把音频文件放在该目录下,或者修改成你自己需要的路径
        String folderurl = Environment.getExternalStorageDirectory().getPath();
        url = folderurl + "/Valentine.mp3";
    }

    @Override
    public void onClick(View v) {
        switch (v.getId()) {
            case R.id.play:
                new Thread(new Runnable() {
                    @Override
                    public void run() {
                        int code = play(url);
                        System.out.println("开始播放");
                    }
                }).start();


                break;
            case R.id.stop:
                new Thread(new Runnable() {
                    @Override
                    public void run() {
                        int code = stop();
                        if (code == 0) {
                            System.out.println("停止成功");
                        }
                    }
                }).start();


                break;
        }

    }

    private native int play(String url);

    private native int stop();
}

接下来就是最重要的编写cmake

接下来就是最重要的编写cmake

接下来就是最重要的编写cmake

上面我们做了这么多工作,gradle编译的时候怎么知道去哪找这些东西呢,就是重要的app目录下得CMakeLists.txt文件

cmake_minimum_required(VERSION 3.4.1)
#设置so目录
set(lib_src_DIR ${CMAKE_SOURCE_DIR}/src/main/jniLibs/${ANDROID_ABI})
#添加头文件查找路径,包括引入库的和自己写的
include_directories(
     ${CMAKE_SOURCE_DIR}/src/main/cpp/include
)
#添加动态库或静态库,其中本地的动态库名称,位置可以由set_target_properties设置
add_library(avcodec-57_lib SHARED IMPORTED)
set_target_properties(avcodec-57_lib PROPERTIES IMPORTED_LOCATION
                          ${lib_src_DIR}/libavcodec-57.so)

add_library(avformat-57_lib SHARED IMPORTED)
set_target_properties(avformat-57_lib PROPERTIES IMPORTED_LOCATION
                     ${lib_src_DIR}/libavformat-57.so)

add_library(avutil-55_lib SHARED IMPORTED)
set_target_properties(avutil-55_lib PROPERTIES IMPORTED_LOCATION
                     ${lib_src_DIR}/libavutil-55.so)

add_library(swresample-2_lib SHARED IMPORTED)
set_target_properties(swresample-2_lib PROPERTIES IMPORTED_LOCATION
                     ${lib_src_DIR}/libswresample-2.so)

add_library(swscale-4_lib SHARED IMPORTED)
set_target_properties(swscale-4_lib PROPERTIES IMPORTED_LOCATION
                     ${lib_src_DIR}/libswscale-4.so)


# build application's shared lib
#这里是你自己编写的c/c++,因为用到ffmpeg的so,所以下面要链接它的库
add_library(play_video SHARED
         ${CMAKE_SOURCE_DIR}/src/main/cpp/play_video.cpp)
add_library(decode_video SHARED
         ${CMAKE_SOURCE_DIR}/src/main/cpp/decode_video.cpp)
add_library(play_audio SHARED
         ${CMAKE_SOURCE_DIR}/src/main/cpp/play_audio.cpp
         ${CMAKE_SOURCE_DIR}/src/main/cpp/AudioDevice.c
         ${CMAKE_SOURCE_DIR}/src/main/cpp/FFmpegAudioPlay.c)
#通过名称查找并引入库,可以引入 NDK 中的库,比如日志模块
find_library( # Sets the name of the path variable.
              log-lib

              # Specifies the name of the NDK library that
              # you want CMake to locate.
              log )
#添加参加编译的库名称,也可以是绝对路径,注意被依赖的模块写在后面
#特别注意,你想生成几个so,就要写几个link,写在一个link里面是错误的
target_link_libraries(play_video
log
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)
target_link_libraries(decode_video
log
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)

#我们需要opensl es来辅助播放,注意加入opensl es
target_link_libraries(play_audio
log
OpenSLES
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)

然后编译执行,done,完整demo请移步我的github

参考http://blog.csdn.net/leixiaohua1020/article/details/47008825

相关文章

网友评论

      本文标题:Android音频开发(五)——使用ffmpeg播放音频

      本文链接:https://www.haomeiwen.com/subject/afsgjxtx.html