
上一节,我们做了很多准备工作,把ffmpeg源码编译成so供我们使用,这下我们终于可以来真正的使用它了。请大家使用最新版本你的AS,使用cmake,抛弃以前的mk。
首先,创建一个新的project,记得勾上Include C++ support,然后一路next就ok了。
我们发现main下面多了一个cpp文件夹,这就是你放c/c++源代码的地方,为了用到我们的ffmpeg so文件,我们在main下面创建jniLibs,把编好的lib里面的so放进去。
PS:之前我们编译的平台是armeabi,如果你想要x86可修改脚本文件中相关配置

其中main,sdl不是ffmpeg编译的so,大家不必在意。然后把include放进cpp文件夹,这些是需要的头文件,
然后在cpp目录下创建play_audio.cpp

#include <jni.h>
#include "log.h"
extern "C" {
#include "AudioDevice.h"
}
//注意加extern "C",否则将按照C++的编译方法吧方法名改了,则java层找不到相应的方法
extern "C"
JNIEXPORT jint JNICALL
Java_com_dy_ffmpeg_PlayMusicActivity_play(JNIEnv *env, jobject instance, jstring url_) {
const char *url = env->GetStringUTFChars(url_, 0);
LOGD("play");
int code = play(url);
return code;
}
extern "C"
JNIEXPORT jint JNICALL
Java_com_dy_ffmpeg_PlayMusicActivity_stop(JNIEnv *env, jobject instance) {
// TODO
LOGD("stop");
int code = shutdown();
return code;
}
下面贴出关键代码
/**
* 初始化操作,创建解码器
* @param file_name 文件名
* @param rate 采样率
* @param channel 通道数
* @return
*/
int init(const char *file_name, int *rate, int *channel) {
//初始化
av_register_all();
aFormatCtx = avformat_alloc_context();
//读取输入的音频文件地址
if (avformat_open_input(&aFormatCtx, file_name, NULL, NULL) != 0) {
LOGE("文件%s不存在!\n", file_name);
return -1; // Couldn't open file
}
//查找文件的流信息
if (avformat_find_stream_info(aFormatCtx, NULL) < 0) {
LOGE("文件流信息错误\n");
return -1;
}
//找到第一个音频帧
int i;
audioStream = -1;
for (i = 0; i < aFormatCtx->nb_streams; i++) {
if (aFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_AUDIO) {
audioStream = i;
break;
}
}
if (audioStream == -1) {
LOGE("音频流未找到!");
return -1;
}
aCodecCtx = aFormatCtx->streams[audioStream]->codec;
//获取相应音频流的解码器
AVCodec *aCodec = avcodec_find_decoder(aCodecCtx->codec_id);
if (!aCodec) {
fprintf(stderr, "不支持的音频格式!\n");
return -1;
}
if (avcodec_open2(aCodecCtx, aCodec, NULL) < 0) {
LOGE("无法打开解码器!\n");
return -1; // Could not open codec
}
//分配一个帧指针,指向解码后的原始帧
aFrame = av_frame_alloc();
// 设置格式转换
swr = swr_alloc();
//输入通道数
av_opt_set_int(swr, "in_channel_layout", aCodecCtx->channel_layout, 0);
//输出通道数
av_opt_set_int(swr, "out_channel_layout", aCodecCtx->channel_layout, 0);
//输入采样率
av_opt_set_int(swr, "in_sample_rate", aCodecCtx->sample_rate, 0);
//输出采样率
av_opt_set_int(swr, "out_sample_rate", aCodecCtx->sample_rate, 0);
//输入采样位宽
av_opt_set_sample_fmt(swr, "in_sample_fmt", aCodecCtx->sample_fmt, 0);
//输出采样位宽,16bit
av_opt_set_sample_fmt(swr, "out_sample_fmt", AV_SAMPLE_FMT_S16, 0);
swr_init(swr);
// 分配PCM数据缓冲区大小
outputBufferSize = 8196;
outputBuffer = (uint8_t *) malloc(sizeof(uint8_t) * outputBufferSize);
// 返回采样率和通道数
*rate = aCodecCtx->sample_rate;
*channel = aCodecCtx->channels;
return 0;
}
// 获取PCM数据, 自动回调获取
int getPCM(void **pcm, size_t *pcmSize) {
LOGD("getPcm");
while (av_read_frame(aFormatCtx, &packet) >= 0) {
int frameFinished = 0;
// Is this a packet from the audio stream?
if (packet.stream_index == audioStream) {
avcodec_decode_audio4(aCodecCtx, aFrame, &frameFinished, &packet);
if (frameFinished) {
// data_size为音频数据所占的字节数
int data_size = av_samples_get_buffer_size(
aFrame->linesize, aCodecCtx->channels,
aFrame->nb_samples, aCodecCtx->sample_fmt, 1);
// 这里内存再分配可能存在问题
if (data_size > outputBufferSize) {
outputBufferSize = data_size;
outputBuffer = (uint8_t *) realloc(outputBuffer,
sizeof(uint8_t) * outputBufferSize);
}
// 音频格式转换
swr_convert(swr, &outputBuffer, aFrame->nb_samples,
(uint8_t const **) (aFrame->extended_data),
aFrame->nb_samples);
// 返回pcm数据
*pcm = outputBuffer;
*pcmSize = data_size;
return 0;
}
}
}
return -1;
}
然后是activity
package com.dy.ffmpeg;
import android.os.Bundle;
import android.os.Environment;
import android.support.v7.app.AppCompatActivity;
import android.view.View;
import android.widget.Button;
public class PlayMusicActivity extends AppCompatActivity implements View.OnClickListener {
static {
System.loadLibrary("play_audio");
}
private Button play;
private Button stop;
private String url;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_play_music);
initView();
}
private void initView() {
play = (Button) findViewById(R.id.play);
stop = (Button) findViewById(R.id.stop);
play.setOnClickListener(this);
stop.setOnClickListener(this);
//获取文件地址,注意把音频文件放在该目录下,或者修改成你自己需要的路径
String folderurl = Environment.getExternalStorageDirectory().getPath();
url = folderurl + "/Valentine.mp3";
}
@Override
public void onClick(View v) {
switch (v.getId()) {
case R.id.play:
new Thread(new Runnable() {
@Override
public void run() {
int code = play(url);
System.out.println("开始播放");
}
}).start();
break;
case R.id.stop:
new Thread(new Runnable() {
@Override
public void run() {
int code = stop();
if (code == 0) {
System.out.println("停止成功");
}
}
}).start();
break;
}
}
private native int play(String url);
private native int stop();
}
接下来就是最重要的编写cmake
接下来就是最重要的编写cmake
接下来就是最重要的编写cmake
上面我们做了这么多工作,gradle编译的时候怎么知道去哪找这些东西呢,就是重要的app目录下得CMakeLists.txt文件
cmake_minimum_required(VERSION 3.4.1)
#设置so目录
set(lib_src_DIR ${CMAKE_SOURCE_DIR}/src/main/jniLibs/${ANDROID_ABI})
#添加头文件查找路径,包括引入库的和自己写的
include_directories(
${CMAKE_SOURCE_DIR}/src/main/cpp/include
)
#添加动态库或静态库,其中本地的动态库名称,位置可以由set_target_properties设置
add_library(avcodec-57_lib SHARED IMPORTED)
set_target_properties(avcodec-57_lib PROPERTIES IMPORTED_LOCATION
${lib_src_DIR}/libavcodec-57.so)
add_library(avformat-57_lib SHARED IMPORTED)
set_target_properties(avformat-57_lib PROPERTIES IMPORTED_LOCATION
${lib_src_DIR}/libavformat-57.so)
add_library(avutil-55_lib SHARED IMPORTED)
set_target_properties(avutil-55_lib PROPERTIES IMPORTED_LOCATION
${lib_src_DIR}/libavutil-55.so)
add_library(swresample-2_lib SHARED IMPORTED)
set_target_properties(swresample-2_lib PROPERTIES IMPORTED_LOCATION
${lib_src_DIR}/libswresample-2.so)
add_library(swscale-4_lib SHARED IMPORTED)
set_target_properties(swscale-4_lib PROPERTIES IMPORTED_LOCATION
${lib_src_DIR}/libswscale-4.so)
# build application's shared lib
#这里是你自己编写的c/c++,因为用到ffmpeg的so,所以下面要链接它的库
add_library(play_video SHARED
${CMAKE_SOURCE_DIR}/src/main/cpp/play_video.cpp)
add_library(decode_video SHARED
${CMAKE_SOURCE_DIR}/src/main/cpp/decode_video.cpp)
add_library(play_audio SHARED
${CMAKE_SOURCE_DIR}/src/main/cpp/play_audio.cpp
${CMAKE_SOURCE_DIR}/src/main/cpp/AudioDevice.c
${CMAKE_SOURCE_DIR}/src/main/cpp/FFmpegAudioPlay.c)
#通过名称查找并引入库,可以引入 NDK 中的库,比如日志模块
find_library( # Sets the name of the path variable.
log-lib
# Specifies the name of the NDK library that
# you want CMake to locate.
log )
#添加参加编译的库名称,也可以是绝对路径,注意被依赖的模块写在后面
#特别注意,你想生成几个so,就要写几个link,写在一个link里面是错误的
target_link_libraries(play_video
log
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)
target_link_libraries(decode_video
log
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)
#我们需要opensl es来辅助播放,注意加入opensl es
target_link_libraries(play_audio
log
OpenSLES
android
avcodec-57_lib
avformat-57_lib
avutil-55_lib
swresample-2_lib
swscale-4_lib
)
然后编译执行,done,完整demo请移步我的github
参考http://blog.csdn.net/leixiaohua1020/article/details/47008825
网友评论