iOS AVAudioEngine

作者: 康双全 | 来源:发表于2016-05-12 23:34 被阅读5879次

    要先了解iOS 音频API具体有哪一些,看这篇文章。
    Audio API Overview
    https://www.objc.io/issues/24-audio/audio-api-overview/

    之后的项目会用到混音的功能,老师要求又不能用第三方的库,因此选择了 AVAudioEngine。 Audio Unit 框架过于底层,而且我也不需要自己写音频单元,所以就略去了。


    介绍AVAudioEngine之前我们来看一下相应的媒体架构,从iOS7 到iOS8 的变化。

    About AVFoundation iOS7
    About AVFoundation iOS8

    介绍AVAudioEngine

    • Objective-C的音频API接口,具有低延迟(low-latency)和实时(real-time)的音频功能
    • 特点和功能:
      1.读写所有Core Audio支持的格式音频文件
      2.播放和录音使用 (files) 和音频缓冲区 (buffers)
      3.动态配置音频处理模块 (audio processing blocks)
      4.可以进行音频挖掘处理 (tap processing)
      5.可以进行立体声音频信号混合和3d效果的混合
      6.音乐设备数字接口MIDI 回放和控制,通过乐器的采样器

    翻译了一下WWDC2014的PPT,总而言之,AVAudioEngine API的基本概念是建立一个音频的节点图,从源节点 (播放器和麦克风) 以及过处理 (overprocessing) 节点 (混音器和效果器) 到目标节点 (硬件输出)。每一个节点都具有一定数量的输入和输出总线,同时这些总线也有良好定义的数据格式。这种结构使得它非常的灵活和强大。而且它集成了音频单元 (audio unit)。下面就分别来讲,希望对你有帮助。

    • The Engine AVAudioEngine
      1.管理所有的音频节点(audio nodes) 2.连接所有的音频节点使其运作形成链条(active chains) 3.动态的获取(attach)和配置所有音频的节点。 4.开启和停止API
    • Nodes AVAudioNode
      Nodes 就是音频块(blocks) 1.Source Nodes: Player, Microphone 2.Processing Nodes: Mixer, Audio Unit Effect 3.Destination: Speaker, Headphones

    AVAudioNode提供了3种implicit nodes:
    1.AVAudioInputNode: system input, cannot be created
    2.AVAudioOutputNode: system output, cannot be created
    3.AVAudioMixerNode: mixes multiple inputs to a single output
    Node经由它们各自的输入被连接到下一级的输出。
    多个节点的输入,单点输出使用:AVAudioMixerNode
    而且总线都会有相应的输出形式 (audio format)

    • Node Connections -Establishing Active Chains
      建立活动的链接:Source Node → Destination Node = Active Chain
      Establishes and active render thread
      Establishes and active render thread 以上两图就是建立和主动渲染线程的示意图。
    • Engine Setup
      建立Engine的基本步骤:
         // 1. Create engine (example only, needs to be strong   reference)
         AVAudioEngine *engine = [[AVAudioEngine alloc] init];
         // 2. Create a player node
         AVAudioPlayerNode *player = [[AVAudioPlayerNode alloc] init];
         // 3. Attach node to the engine
         [engine attachNode:player];
         // 4. Connect player node to engine's main mixer
         AVAudioMixerNode *mixer = engine.mainMixerNode;
         [engine connect:player to:mixer format:[mixer outputFormatForBus:0]];
         // 5. Start engine
         NSError *error;
         if (![engine startAndReturnError:&error]) {
              // handle error
            }
    

    至此我们完成了Engine的初始化和nodes的链接,下面就来看 Files, Buffers, and Formats


    Files, Buffers, and Formats
    • Audio Files AVAudioFile
      1.读写所有Core Audio 支持的音频格式 2.在读取的时候自动解码,在写入录音的时候自动编码 3.File 包括 file format 和 a processing format ,现在下面的两个都用AVAudioFormat来取代。1.fileFormat:on-disk format 2.processingFormat:uncompressed,in-memory format
    • Audio Formats AVAudioFormat
      1.提供数字音频采样的格式描述 2.提供sample rate, channel count, interleaving等 3.通过AudioStreamBasicDescription进行包装
    • Audio Buffers AVAudioPCMBuffer
    • Player Nodes AVAudioPlayerNode

    1.将音频文件映射到活动链(active render thread)。
    2.从files和buffers安排音频的映射,下面有几个具体的实现。
    (1) 决定时候立即播放,或者推迟播放(future time)
    AVAudioTime 规定在future time推迟某段时间播放
    (2) Files:决定完成回调file或者是file的某一段
    (3) Buffers:1.多个buffer完成独立回调 2.looping buffer

    • Creating Files and Buffers AVAudioFile AVAudioPCMBuffer
         NSURL *url = [[NSBundle mainBundle] URLForAuxiliaryExecutable:@"Your.mp3"];
         // Create AVAudioFile
         AVAudioFile *file = [[AVAudioFile alloc] initForReading:url error:nil];
         // Create AVAudioPCMBuffer
         AVAudioFormat *format = file.processingFormat;
         AVAudioFrameCount capacity = (AVAudioFrameCount)file.length;
         AVAudioPCMBuffer *buffer = [[AVAudioPCMBuffer alloc] initWithPCMFormat:format frameCapacity:capacity];
         // Read AVAudioFile -> AVAudioPCMBuffer
         [file readIntoBuffer:buffer error:nil];
    
    • Scheduling Files and Buffers
         //Immediate File Playback
         [playerNode scheduleFile:audioFile atTime:nil completionHandler:nil];
         [playerNode play];
    
         //Future Buffer Playback
         [playerNode scheduleBuffer:audioBuffer completionHandler:nil];
         [playerNode play];
    
         // Play audio file 5 seconds from now
         double sampleRate = buffer.format.sampleRate;
         double sampleTime = sampleRate * 5.0;
         AVAudioTime *futureTime = [AVAudioTime timeWithSampleTime:sampleTime atRate:sampleRate];
    
         [playerNode scheduleBuffer:audioBuffer atTime:futureTime options:0 completionHandler:nil];
         [playerNode play];
    

    Scheduling Options
    1.串行播放(Scheduling multiple buffers queues them serially)

    [playerNode scheduleBuffer:buffer1 atTime:nil options:0 completionHandler:nil];
    [playerNode play];
    [playerNode scheduleBuffer:buffer2 atTime:nil options:0 completionHandler:nil];
    

    2.中断播放(Schedule with interruption option to change this behavior)

    [playerNode scheduleBuffer:buffer2 atTime:nil options:AVAudioPlayerNodeBufferInterrupts completionHandler:nil];
    

    至此讲完了file和buffer的操作,结合上面的内容你已经可以自己写一段使用buffer来读取音频文件并播放的Objective-C文件啦。项目写完之后放gitbub,源码自取。


    从这里开始讲混音,弄懂了上米的内容,这个API的混音就比较容易理解了。

    • Audio Mixing AVAudioMixerNode
      AVAudioMixing Protocol
    • Mixer Input Bus Settings AVAudioMixing protocol
    //Common mixing protocol properties
    //Volume
    player.volume = 0.5;
    //Stereo mixing protocol properties
    //Pan
    player.pan = -1.0;
    

    关于这个API强大的混音功能,我现在使用的只有这么多了,之后慢慢添加。


    2016.05.12

    相关文章

      网友评论

      • Liumouren:outputNode.installTap里面的回调block为什么不执行呢?他的回调条件是什么知道吗
        8314dc1da6a3:请贴出你代码的上下文。我录音时回调是会执行的,不然没法写文件了。
      • 7d70a85ad633:这个能控制播放次数吗?还有循环播放怎么弄的?要自己封装
        yadong:循环是在 [_player scheduleBuffer:_playerLoopBuffer atTime:nil options:AVAudioPlayerNodeBufferLoops completionHandler:nil];
        yadong:@90后大叔 这个可以用AudioPlayer播放吗? 具体怎么操作?
        90后大叔: 看用什么播放,如果用AudioPlayer播放numberOfLoops设为负数
      • __阳阳:能不能对一个音频文件添加音效, 然后重新写入文件?
        __阳阳:@__Flynn 没有........
        __Flynn:请教一下,你的最后实现了吗?
      • 飞鱼非鱼会飞:可否解释一下,bus总线 这是什么鬼?
      • 谢衣丶:请问这个player可以获取音频文件的总时长和当前时间吗
      • Jack问:跪求github地址

      本文标题:iOS AVAudioEngine

      本文链接:https://www.haomeiwen.com/subject/sqgurttx.html