Audio Unit播放PCM文件

作者: 落影loyinglin | 来源:发表于2017-09-17 10:11 被阅读1883次

前言

相关文章:
使用VideoToolbox硬编码H.264
使用VideoToolbox硬解码H.264
使用AudioToolbox编码AAC
使用AudioToolbox播放AAC
HLS点播实现(H.264和AAC码流)
HLS推流的实现(iOS和OS X系统)
iOS在线音频流播放

最近对Audio Unit感兴趣,用几周的业余时间研究,顺利习得Audio Unit播放、录制声音,用AudioConvert转格式的技巧。
这是Audio Unit系列的第一篇,用Audio Unit播放PCM文件
Audio Unit的知识点较多,围绕demo介绍如何使用Audio Unit。

正文

Audio Unit 是一个处理单元,Remote I/O Unit是较常用的一个Unit。
Audio Unit以pull的模式工作,output的unit在start的时候会从input bus加载samples;这个input bus可以是上一个unit,也可以是其他指定好格式的来源。每次加载,就是一次 rendering cycle。iOS不支持加载第三方的audio unit,只能加载iOS提供的unit。

demo中用到的是Remote I/O Unit,类型是kAudioUnitSubType_RemoteIO
Remote I/O Unit在input和output的设备之间建立连接,用较低的延迟处理声音信息。从设备输入的hardware format音频流,转成application设置的format,处理完再以application的format传给输出的设备。
用苹果官方的一张图来解释:

图中Element 也叫 bus;
Element 0的有一半是对着扬声器,是output bus;Element 1有一半对着麦克风,是input bus;
音频流从输入域(input scope)输入, 从输出域(output scope)输出;

AudioUnit的属性中,最重要的是stream format,包括采样率、packet information和编码类型;AudioStreamBasicDescriptions (ASBD)CoreAudio通用的流结构描述文件。
比如说,以下是输出到扬声器的音频格式:

(AudioStreamBasicDescription) outputFormat = {
  mSampleRate = 0
  mFormatID = 1819304813
  mFormatFlags = 41
  mBytesPerPacket = 4
  mFramesPerPacket = 1
  mBytesPerFrame = 4
  mChannelsPerFrame = 2
  mBitsPerChannel = 32
  mReserved = 0
}

AudioUnitGetPropertyAudioUnitSetProperty 可以获取和设置AudioUnit属性;
AudioUnitGetPropertyInfo 用于在设置或者读取属性之前,获取属性可以修改的大小和是否可写,避免error的产生;
AudioUnitInitialize 是初始化AudioUnit,需要在设置好absd之后调用;初始化是一个耗时的操作,需要分配buffer、申请系统资源等;
kAudioUnitProperty_SetRenderCallback 用来设置回调,AURenderCallbackStruct是回调的结构体;

AudioBufferList是音频的缓存数据结构,具体如下:

struct AudioBufferList
{
   UInt32      mNumberBuffers;
   AudioBuffer mBuffers[1]; // this is a variable length array of mNumberBuffers elements
};

struct AudioBuffer
{
   UInt32              mNumberChannels;
   UInt32              mDataByteSize;
   void* __nullable    mData;
};

mNumberBuffers: AudioBuffer的数量
mBuffers:AudioBuffer的指针数组,数组长度等于mNumberBuffers
AudioBuffer:mNumberChannels是声道数,mDataByteSize是buffer大小,mData 音频数据的buffer

具体细节

1、设置AVAudioSession,因为demo只用到播放功能,故设置AVAudioSessionAVAudioSessionCategoryPlayback

2、初始化AudioComponentDescription,然后再调用AudioComponentFindNext得到AudioComponent,最后调用AudioComponentInstanceNew初始化,得到AudioUnit

3、初始化AudioBufferListmNumberBuffersmNumberChannels设置为1,需要注意的是mData初始化mData的时候需要手动分配内存;

4、设置AudioUnit的output bus的输入格式(AudioStreamBasicDescription)

Sample Rate:              44100
Format ID:                 lpcm
Format Flags:                 4
Bytes per Packet:             2
Frames per Packet:            1
Bytes per Frame:              2
Channels per Frame:           1
Bits per Channel:            16

5、设置AudioUnit的回调函数,注意是OUTPUT_BUS的输入域的回调;调用AudioUnitInitialize初始化AudioUnit;

6、调用AudioOutputUnitStart开始,AudioUnit会调用之前设置的PlayCallback,在回调函数中把音频数据赋值给AudioBufferList;

总结

Demo地址在Github。
本文主要介绍AudioUnit如何播放声音,后续的两篇文章介绍AudioUnit的录音场景还有配合AudioConvert播放各种格式的文件。
Demo的代码逻辑已经经过精简,以较为简练的代码介绍使用AudioUnit的必需步骤。看似简单的功能,也是看了很多篇苹果官方的文档才明白。
感谢家里领导的支持,才有多余的时间来学习,写Demo,以及此文。

相关文章

网友评论

  • LX2014:请问你学习这些知识是通过什么途径学习的?
    落影loyinglin:@LX2015 我说自学你信吗
  • Kira丶陈:请问如果要是播放 8k 16位的pcm文件,每次callback的buffer大小是372,但是我们网络流下载的是640大小的buffer,请问可以每次callback时填充的buffer的大小吗?
  • Y_Swordsman:能不能实时播放 音频的samplebuffer呢? 因为音频的samplebuffer 是可以转化为AudioBufferList啊....但是我对 audioUnit不熟悉..不知道大神可以指点一下吗?
    Y_Swordsman:@落影loyinglin https://github.com/HelloWordab/SLVideoTool/blob/master/SLVideoSDK/PCMPlayer.m 你直接copy这个文件....希望里面的内容能帮助你.
    Y_Swordsman:@落影loyinglin 我没有 成本的demo ..试过好几种都好像要本地的一样....我没找到实时的.明天我发个GitHub 上的demo给你.我之前找过的资料
    落影loyinglin:@Y_Swordsman 刚好在弄。你发个demo过来 我看看

本文标题:Audio Unit播放PCM文件

本文链接:https://www.haomeiwen.com/subject/sjgysxtx.html