iOS音频播放

作者: sxyxsp123 | 来源:发表于2017-01-17 23:55 被阅读937次
    引言:

    在iOS中音频按照播放形式可以分为音效播放和音乐播放。音效主要指的是一些短音频,通常作为点缀音频,如游戏中的喊杀声,对于这类音频不需要进行进度,循环等控制。音乐主要指的是一些较长的音频,通常是主音频,对于这类音频播放通常需要精确的控制。在iOS中播放一般使用AudioToolbox.framework这个框架,播放音乐一般使用AVFoundation.framework。

    音效播放

    AudioToolbox.framework是一套基于C语言的框架,使用它来播放音效其本质是将音效注册到系统声音服务(System Sound Service)中。System Sound Service是一种简单,底层的声音播放服务。但是它本身有一些限制:

    • 音效播放时间不能超过30s
    • 数据必须是PCM或者IMA4格式
    • 音频文件必须打包成.caf , .aif, .wav中的一种(这是官方的说法,实际测试一些.aac .mp3格式的也可以播放)

    使用System Sound Service播放音效的步骤如下:

    1. 调用AudioServicesCreateSystemSoundID( CFURLRef inFileURL, SystemSoundID* outSystemSoundID)函数获得系统声音ID。
    2. 如果需要监听播放完成操作,则使用AudioServicesAddSystemSoundCompletion( SystemSoundID inSystemSoundID,
      CFRunLoopRef inRunLoop, CFStringRef inRunLoopMode, AudioServicesSystemSoundCompletionProc inCompletionRoutine, void* inClientData)方法注册回调函数。
    3. 调用AudioServicesPlaySystemSound(SystemSoundID inSystemSoundID) 或者AudioServicesPlayAlertSound(SystemSoundID inSystemSoundID) 方法播放音效(后者带有震动效果)。

    例如:

    
     void playCallback(SystemSoundID ID, void  * clientData){
         NSLog(@"播放完成...");
     }
    
        NSURL *audioURL=[[NSBundle mainBundle] URLForResource:@"abc"  withExtension:@"aac"];
        SystemSoundID soundID;
        //Creates a system sound object.
        AudioServicesCreateSystemSoundID((__bridge CFURLRef)(audioURL), &soundID);
        //Registers a callback function that is invoked when a specified system sound finishes playing.
        AudioServicesAddSystemSoundCompletion(soundID, NULL, NULL, &playCallback, (__bridge void * _Nullable)(self));
        // AudioServicesPlayAlertSound(soundID);
        AudioServicesPlaySystemSound(soundID);
        
    
    音乐播放

    如果播放较大的音频或者要对音频有精确的控制的话,通常会选择使用AVFoundation.framework中的AVAudioPlayer来实现。AVAudioPlayer可以看成一个播放器,它支持多种音频格式,而且能够进行进度、音量、播放速度等控制。首先简单看一下AVAudioPlayer常用的属性和方法:

    
    @property(readonly, getter=isPlaying) BOOL playing //是否正在播放,只读
    @property(readonly) NSUInteger numberOfChannels  //音频声道数,只读
    @property(readonly) NSTimeInterval duration //音频时长
    @property(readonly) NSURL *url  //音频文件路径,只读
    @property(readonly) NSData *data    //音频数据,只读
    @property float pan  //立体声平衡,如果为-1.0则完全左声道,如果0.0则左右声道平衡,如果为1.0则完全为右声道
    @property float volume  音量大小,范围0-1.0
    @property BOOL enableRate   是否允许改变播放速率
    @property float rate    播放速率,范围0.5-2.0,如果为1.0则正常播放,如果要修改播放速率则必须设置enableRate为YES
    @property NSTimeInterval currentTime    当前播放时长
    @property(readonly) NSTimeInterval deviceCurrentTime    输出设备播放音频的时间,注意如果播放中被暂停此时间也会继续累加
    @property NSInteger numberOfLoops   循环播放次数,如果为0则不循环,如果小于0则无限循环,大于0则表示循环次数
    @property(readonly) NSDictionary *settings  音频播放设置信息,只读
    @property(getter=isMeteringEnabled) BOOL meteringEnabled    是否启用音频测量,默认为NO,一旦启用音频测量可以通过updateMeters方法更新测量值
    
    对象方法    
    - (instancetype)initWithContentsOfURL:(NSURL *)url error:(NSError **)outError   使用文件URL初始化播放器,注意这个URL不能是HTTP URL,AVAudioPlayer不支持加载网络媒体流,只能播放本地文件
    - (instancetype)initWithData:(NSData *)data error:(NSError **)outError  使用NSData初始化播放器,注意使用此方法时必须文件格式和文件后缀一致,否则出错,所以相比此方法更推荐使用上述方法或- (instancetype)initWithData:(NSData *)data fileTypeHint:(NSString *)utiString error:(NSError **)outError方法进行初始化
    - (BOOL)prepareToPlay;  加载音频文件到缓冲区,注意即使在播放之前音频文件没有加载到缓冲区程序也会隐式调用此方法。
    - (BOOL)play;   播放音频文件
    - (BOOL)playAtTime:(NSTimeInterval)time 在指定的时间开始播放音频
    - (void)pause;  暂停播放
    - (void)stop;   停止播放
    - (void)updateMeters    更新音频测量值,注意如果要更新音频测量值必须设置meteringEnabled为YES,通过音频测量值可以即时获得音频分贝等信息
    - (float)peakPowerForChannel:(NSUInteger)channelNumber; 获得指定声道的分贝峰值,注意如果要获得分贝峰值必须在此之前调用updateMeters方法
    - (float)averagePowerForChannel:(NSUInteger)channelNumber   获得指定声道的分贝平均值,注意如果要获得分贝平均值必须在此之前调用updateMeters方法
    @property(nonatomic, copy) NSArray *channelAssignments  获得或设置播放声道
    代理方法    说明
    - (void)audioPlayerDidFinishPlaying:(AVAudioPlayer *)player successfully:(BOOL)flag 音频播放完成
    - (void)audioPlayerDecodeErrorDidOccur:(AVAudioPlayer *)player error:(NSError *)error   音频解码发生错误
    

    AVAudioPlayer的使用比较简单:

    1. 初始化AVAudioPlayer对象,此时通常指定本地文件路径。
    2. 设置播放器属性,例如重复次数、音量大小等。
    3. 调用play方法播放。

    当然由于AVAudioPlayer一次只能播放一个音频文件,所有上一曲、下一曲其实可以通过创建多个播放器对象来完成,播放进度的实现主要依靠一个定时器实时计算当前播放时长和音频总时长的比例。

    
        NSString *urlStr=[[NSBundle mainBundle]pathForResource:@"abc" ofType:@"aac"];
        NSURL *url=[NSURL fileURLWithPath:urlStr];
        NSError *error=nil;
        //初始化播放器,注意这里的Url参数只能时文件路径,不支持HTTP Url
         _audioPlayer=[[AVAudioPlayer alloc]initWithContentsOfURL:url error:&error];
        //设置播放器属性
        _audioPlayer.numberOfLoops=0;//设置为0不循环
        //audioPlayer.delegate=self;
        [_audioPlayer prepareToPlay];//加载音频文件到缓存
        
        [_audioPlayer play];
    
    
    音频会话

    在iOS中每个应用都有一个音频会话,这个会话就通过AVAudioSession来表示。AVAudioSession同样存在于AVFoundation框架中,它是单例模式设计,通过sharedInstance进行访问。在使用Apple设备时大家会发现有些应用只要打开其他音频播放就会终止,而有些应用却可以和其他应用同时播放,在多种音频环境中如何去控制播放的方式就是通过音频会话来完成的。下面是音频会话的几种会话模式:

    如果要让一个播放器推到后台后还继续播放,则需要做下面几件事:

    1. 设置后台运行模式:在plist文件中添加Required background modes,并且设置item 0=App plays audio or streams audio/video using AirPlay(其实可以直接通过Xcode在Project Targets-Capabilities-Background Modes中设置)
    1. 设置AVAudioSession的类型为AVAudioSessionCategoryPlayback并且调用setActive::方法启动会话。

    AVAudioSession *audioSession=[AVAudioSession sharedInstance];

    [audioSession setCategory:AVAudioSessionCategoryPlayback error:nil];

    [audioSession setActive:YES error:nil];

    1. 为了能够让应用退到后台之后支持耳机控制,建议添加远程控制事件(这一步不是后台播放必须的)

    前两步是后台播放所必须设置的,第三步主要用于接收远程事件.如果这一步不设置虽让也能够在后台播放,但是无法获得音频控制权(如果在使用当前应用之前使用其他播放器播放音乐的话,此时如果按耳机播放键或者控制中心的播放按钮则会播放前一个应用的音频),并且不能使用耳机进行音频控制。第一步操作相信大家都很容易理解,如果应用程序要允许运行到后台必须设置,正常情况下应用如果进入后台会被挂起,通过该设置可以上应用程序继续在后台运行。此部分参考了这里

    音频队列服务

    大家应该已经注意到了,无论是前面的录音还是音频播放均不支持网络流媒体播放。AVAudioPlayer只能播放本地文件,并且是一次性加载所有音频数据,初始化AVAudioPlayer时指定的URL也只能是File URL而不能是HTTP URL。当然,将音频文件下载到本地然后再调用AVAudioPlayer来播放也是一种播放网络音频的办法,但是这种方式最大的弊端就是必须等到整个音频播放完成才能播放,而不能使用流式播放,这往往在实际开发中是不切实际的。那么在iOS中如何播放网络流媒体呢?就是使用AudioToolbox框架中的音频队列服务Audio Queue Services。

    使用音频队列服务完全可以做到音频播放和录制,首先看一下录音音频服务队列:

    一个音频服务队列Audio Queue有三部分组成:

    三个缓冲器Buffers:每个缓冲器都是一个存储音频数据的临时仓库。

    一个缓冲队列Buffer Queue:一个包含音频缓冲器的有序队列。

    一个回调Callback:一个自定义的队列回调函数。

    声音通过输入设备进入缓冲队列中,首先填充第一个缓冲器;当第一个缓冲器填充满之后自动填充下一个缓冲器,同时会调用回调函数;在回调函数中需要将缓冲器中的音频数据写入磁盘,同时将缓冲器放回到缓冲队列中以便重用。下面是Apple官方关于音频队列服务的流程示意图:


    类似的,看一下音频播放缓冲队列,其组成部分和录音缓冲队列类似:

    但是在音频播放缓冲队列中,回调函数调用的时机不同于音频录制缓冲队列,流程刚好相反。将音频读取到缓冲器中,一旦一个缓冲器填充满之后就放到缓冲队列中,然后继续填充其他缓冲器;当开始播放时,则从第一个缓冲器中读取音频进行播放;一旦播放完之后就会触发回调函数,开始播放下一个缓冲器中的音频,同时填充第一个缓冲器放;填充满之后再次放回到缓冲队列。下面是详细的流程:


    当然,要明白音频队列服务的原理并不难,问题是如何实现这个自定义的回调函数,这其中我们有大量的工作要做,控制播放状态、处理异常中断、进行音频编码等等。由于牵扯内容过多,而且不是本文目的,如果以后有时间将另开一篇文章重点介绍,目前有很多第三方优秀框架可以直接使用,例如AudioStreamer、FreeStreamer

    相关文章

      网友评论

      本文标题:iOS音频播放

      本文链接:https://www.haomeiwen.com/subject/omsvbttx.html