要先了解iOS 音频API具体有哪一些,看这篇文章。
Audio API Overview
https://www.objc.io/issues/24-audio/audio-api-overview/
之后的项目会用到混音的功能,老师要求又不能用第三方的库,因此选择了 AVAudioEngine。 Audio Unit 框架过于底层,而且我也不需要自己写音频单元,所以就略去了。
介绍AVAudioEngine之前我们来看一下相应的媒体架构,从iOS7 到iOS8 的变化。
About AVFoundation iOS7About AVFoundation iOS8
介绍AVAudioEngine
- Objective-C的音频API接口,具有低延迟(low-latency)和实时(real-time)的音频功能
- 特点和功能:
1.读写所有Core Audio支持的格式音频文件
2.播放和录音使用 (files) 和音频缓冲区 (buffers)
3.动态配置音频处理模块 (audio processing blocks)
4.可以进行音频挖掘处理 (tap processing)
5.可以进行立体声音频信号混合和3d效果的混合
6.音乐设备数字接口MIDI 回放和控制,通过乐器的采样器
翻译了一下WWDC2014的PPT,总而言之,AVAudioEngine API的基本概念是建立一个音频的节点图,从源节点 (播放器和麦克风) 以及过处理 (overprocessing) 节点 (混音器和效果器) 到目标节点 (硬件输出)。每一个节点都具有一定数量的输入和输出总线,同时这些总线也有良好定义的数据格式。这种结构使得它非常的灵活和强大。而且它集成了音频单元 (audio unit)。下面就分别来讲,希望对你有帮助。
-
The Engine
AVAudioEngine
1.管理所有的音频节点(audio nodes) 2.连接所有的音频节点使其运作形成链条(active chains) 3.动态的获取(attach)和配置所有音频的节点。 4.开启和停止API -
Nodes
AVAudioNode
Nodes 就是音频块(blocks) 1.Source Nodes: Player, Microphone 2.Processing Nodes: Mixer, Audio Unit Effect 3.Destination: Speaker, Headphones
AVAudioNode
提供了3种implicit nodes:
1.AVAudioInputNode
: system input, cannot be created
2.AVAudioOutputNode
: system output, cannot be created
3.AVAudioMixerNode
: mixes multiple inputs to a single output
Node经由它们各自的输入被连接到下一级的输出。
多个节点的输入,单点输出使用:AVAudioMixerNode
而且总线都会有相应的输出形式 (audio format)
-
Node Connections -Establishing Active Chains
建立活动的链接:Source Node → Destination Node = Active Chain
Establishes and active render thread
Establishes and active render thread 以上两图就是建立和主动渲染线程的示意图。 -
Engine Setup
建立Engine的基本步骤:
// 1. Create engine (example only, needs to be strong reference)
AVAudioEngine *engine = [[AVAudioEngine alloc] init];
// 2. Create a player node
AVAudioPlayerNode *player = [[AVAudioPlayerNode alloc] init];
// 3. Attach node to the engine
[engine attachNode:player];
// 4. Connect player node to engine's main mixer
AVAudioMixerNode *mixer = engine.mainMixerNode;
[engine connect:player to:mixer format:[mixer outputFormatForBus:0]];
// 5. Start engine
NSError *error;
if (![engine startAndReturnError:&error]) {
// handle error
}
至此我们完成了Engine的初始化和nodes的链接,下面就来看 Files, Buffers, and Formats
Files, Buffers, and Formats
-
Audio Files
AVAudioFile
1.读写所有Core Audio 支持的音频格式 2.在读取的时候自动解码,在写入录音的时候自动编码 3.File 包括 file format 和 a processing format ,现在下面的两个都用AVAudioFormat
来取代。1.fileFormat
:on-disk format 2.processingFormat
:uncompressed,in-memory format -
Audio Formats
AVAudioFormat
1.提供数字音频采样的格式描述 2.提供sample rate, channel count, interleaving等 3.通过AudioStreamBasicDescription
进行包装 -
Audio Buffers
AVAudioPCMBuffer
-
Player Nodes
AVAudioPlayerNode
1.将音频文件映射到活动链(active render thread)。
2.从files和buffers安排音频的映射,下面有几个具体的实现。
(1) 决定时候立即播放,或者推迟播放(future time)
AVAudioTime
规定在future time推迟某段时间播放
(2) Files:决定完成回调file或者是file的某一段
(3) Buffers:1.多个buffer完成独立回调 2.looping buffer
-
Creating Files and Buffers
AVAudioFile
AVAudioPCMBuffer
NSURL *url = [[NSBundle mainBundle] URLForAuxiliaryExecutable:@"Your.mp3"];
// Create AVAudioFile
AVAudioFile *file = [[AVAudioFile alloc] initForReading:url error:nil];
// Create AVAudioPCMBuffer
AVAudioFormat *format = file.processingFormat;
AVAudioFrameCount capacity = (AVAudioFrameCount)file.length;
AVAudioPCMBuffer *buffer = [[AVAudioPCMBuffer alloc] initWithPCMFormat:format frameCapacity:capacity];
// Read AVAudioFile -> AVAudioPCMBuffer
[file readIntoBuffer:buffer error:nil];
- Scheduling Files and Buffers
//Immediate File Playback
[playerNode scheduleFile:audioFile atTime:nil completionHandler:nil];
[playerNode play];
//Future Buffer Playback
[playerNode scheduleBuffer:audioBuffer completionHandler:nil];
[playerNode play];
// Play audio file 5 seconds from now
double sampleRate = buffer.format.sampleRate;
double sampleTime = sampleRate * 5.0;
AVAudioTime *futureTime = [AVAudioTime timeWithSampleTime:sampleTime atRate:sampleRate];
[playerNode scheduleBuffer:audioBuffer atTime:futureTime options:0 completionHandler:nil];
[playerNode play];
Scheduling Options
1.串行播放(Scheduling multiple buffers queues them serially)
[playerNode scheduleBuffer:buffer1 atTime:nil options:0 completionHandler:nil];
[playerNode play];
[playerNode scheduleBuffer:buffer2 atTime:nil options:0 completionHandler:nil];
2.中断播放(Schedule with interruption option to change this behavior)
[playerNode scheduleBuffer:buffer2 atTime:nil options:AVAudioPlayerNodeBufferInterrupts completionHandler:nil];
至此讲完了file和buffer的操作,结合上面的内容你已经可以自己写一段使用buffer来读取音频文件并播放的Objective-C文件啦。项目写完之后放gitbub,源码自取。
从这里开始讲混音,弄懂了上米的内容,这个API的混音就比较容易理解了。
-
Audio Mixing
AVAudioMixerNode
AVAudioMixing Protocol - Mixer Input Bus Settings AVAudioMixing protocol
//Common mixing protocol properties
//Volume
player.volume = 0.5;
//Stereo mixing protocol properties
//Pan
player.pan = -1.0;
关于这个API强大的混音功能,我现在使用的只有这么多了,之后慢慢添加。
2016.05.12
网友评论