美文网首页ios-音频
Swift5 AVAudioEngine录音 & AVAudio

Swift5 AVAudioEngine录音 & AVAudio

作者: Fatm | 来源:发表于2020-07-28 15:47 被阅读0次

    最近对AVAudioEngine感兴趣,一方面是网上很多录音是通过AVAudioRecorderAudioUnit来实现的,AVAudioEngine相对较少,另一方面是wwdc上关于音频技术的介绍,大部分都用AVAudioEngine来讲解了,所以想自己试着用用看。iOS上重采样的资料也很少,所以顺便探索一下重采样。

    以下是我经过一段时间的尝试后,整理出来的音频相关知识和实现流程

    音频

    推荐阅读:
    音频基本概念
    AudioStreamBasicDescription

    补充:
    IOBufferDuration:采样的间隔,假设采样率为16k,那么1秒钟会采样16000个样本,设置IOBufferDuration为0.1秒,设备会按0.1秒一次去进行采样,每次采样数量为16000*0.1 = 1600,由于录音设备有它本身的条件限制,所以不能随意设置采样间隔,例如把IOBufferDuration设置为0.000001秒,系统会自动修改成当前设备支持的最低采样间隔,测试设备8p采样16k的最低采样间隔约为0.016秒

    bufferSize:缓冲区的大小。录制实时音频流的时候,假设IOBufferDuration为0.1秒,音频不是每隔0.1秒给我们输出一次数据,而是每隔0.1秒把音频数据放入缓冲区,缓冲区满了后,再把音频输出一次给我们,例如bufferSize设为512,那么当缓冲区中的音频样本数达到512个,就会输出给我们,我们得到音频的时间间隔是1s/16000x512=0.032秒。由于AVAudioEngineTap方法要求缓冲区的大小为100ms~400ms采集音频的大小,0.032低于系统要求的0.1s,所以系统会自动修改缓冲区大小为0.1sx16000 = 1600,每隔0.1s输出一次音频给我们,每次的音频样本数为1600,大小为 3200字节。

    注意:在AVAudioEngine中缓冲区大小的单位是样本数,在AVAudioUnit中单位为字节数,在线性16位PCM格式单声道音频里,一个package含有一个frame,一个frame有1个channel,1个channel有16位,占两个字节,缓冲区512个样本数在使用AVAudioUnit时要设为1024个字节大小

    AVAudioEngine录音

    https://www.raywenderlich.com

    AVAudioEngine位于AVFoundation(一个顶层的音频框架),却拥有底层AudioUnit的能力。AVAudioEngine对象自带一个inputNode来完成录音,可以实时输出录制的音频流。
    以下是录制16k16位单声道PCM格式音频示例

    1.首先设置录音硬件的录音信息

            let audiosession = AVAudioSession.sharedInstance()
            do{
                try audiosession.setPreferredSampleRate(16000)
                try audiosession.setPreferredIOBufferDuration(0.016)
                try audiosession.setActive(true, options: AVAudioSession.SetActiveOptions.notifyOthersOnDeactivation)
            }catch{
                print(error)
            }
    

    采样率为16k
    IOBufferDuration为0.016s

    2.设置引擎接收的录音信息

    这是AVAudioEngine默认inputNode接收的录音信息

    ["AVLinearPCMBitDepthKey": 32,
     "AVChannelLayoutKey": <01006400 00000000 00000000>, 
    "AVLinearPCMIsBigEndianKey": 0, 
    "AVSampleRateKey": 16000,
     "AVLinearPCMIsNonInterleaved": 1,
     "AVNumberOfChannelsKey": 1, 
    "AVFormatIDKey": 1819304813, 
    "AVLinearPCMIsFloatKey": 1]
    

    我们要录制16k16位的格式,所以修改一下采样率和位宽

    let inputNode = audioEngine.inputNode
    var setting = audioEngine.inputNode.inputFormat(forBus: 0).settings
    setting[AVLinearPCMBitDepthKey] = 16
    setting[AVSampleRateKey] = 16000
    setting[AVLinearPCMIsFloatKey] = 0
    

    注意:在AVAudioEngine中8 16位对应Int类型, 32位对应Float,修改成16位的同时需要把AVLinearPCMIsFloatKey设置为0,不然即使修改了位宽为16,inputNode还是以32位去接收

    3.实时输出录制的音频

    inputNode安装一个水龙头tap,缓冲区大小设为最小的0.1s,对应16000x0.1s=1600个样本。接收的音频信息是第二步配置好的setting

    let newFormat = AVAudioFormat.init(settings: setting)
    inputNode.installTap(onBus: 0, bufferSize: AVAudioFrameCount(0.1*sampleRate), format: newFormat) { (buffer, time) in
          print("\(buffer) \(Date().timeIntervalSince1970)")
    }
    

    调用audioEngine.start()开始录制,可以看到获取的音频大小为1600个样本,3200字节大小,音频的输出间隔约为0.1s

    image.png

    可以试着修改录音的参数,去录制不同的音频

    AVAudioConverter重采样

    之所以要重采样,是因为很多处理音频的SDK对音频采样率有不同的要求,例如腾讯音视频SDK需要48k采样率,讯飞的语音识别SDK需要16k采样率,使用重采样可以免去开多个录音器录制不同采样率的麻烦

    1.修改AVAudioEngine录音信息

    录制48k音频,重采样成16k

    /// 录音引擎
    private var audioEngine: AVAudioEngine = AVAudioEngine()
    /// 采样率
    private let sampleRate:Double = 48000
    /// 采样间隔
    private let ioBufferDuration = 0.1
    

    2.设置重采样后的信息

     let resampleFormat = AVAudioFormat(commonFormat:.pcmFormatInt16,sampleRate: Double(16000), channels: 1, interleaved: false)
     let formatConverter =  AVAudioConverter(from:newFormat!, to: resampleFormat!)
    

    3.开始重采样

    self.audioQueue.async {
             guard let pcmBuffer = AVAudioPCMBuffer(pcmFormat: resampleFormat!, 
              frameCapacity: AVAudioFrameCount(1600)) else{
                        return
             }
                    
             let inputBlock: AVAudioConverterInputBlock = {inNumPackets, outStatus in
                        outStatus.pointee = AVAudioConverterInputStatus.haveData
                        return buffer
              }
                    
             var error: NSError? = nil
             formatConverter?.convert(to: pcmBuffer, error: &error, withInputFrom: inputBlock)
                    
             print("\(pcmBuffer) \(Date().timeIntervalSince1970)")
    }
    

    48k重采样成16k后,样本数变成原来的3分之一,所以pcmBufferframeCapacity设为1600

    image.png

    4.pcmBuffer转data

        func toNSData(PCMBuffer: AVAudioPCMBuffer) -> NSData {
            let channelCount = 1  // given PCMBuffer channel count is 1
            let channels = UnsafeBufferPointer(start: PCMBuffer.int16ChannelData, count: channelCount)
            let ch0Data = NSData(bytes: channels[0], length:Int(PCMBuffer.frameCapacity * PCMBuffer.format.streamDescription.pointee.mBytesPerFrame))
            return ch0Data
        }
    

    这是在网上找到的pcmBuffer转data方法,由于我重采样后的音频是16位int的,所以获取数据时,取PCMBuffer.int16ChannelData,不同的音频,获取数据时要选择对应格式的数据

    注意:int16ChannelData、int32ChannelData、floatChannelData当其中一个有值时,另外两个为nil

    48k重采样成16k后的音频数据,我放到识别引擎中可以成功识别出,效果很好

    DEMO

    参考
    音频 API 一览
    AVAudioEngine Tutorial for iOS: Getting Started
    Apple's "Working with Audio"
    Changing the Format of iOS AVAudioEngine Mic Input

    相关文章

      网友评论

        本文标题:Swift5 AVAudioEngine录音 & AVAudio

        本文链接:https://www.haomeiwen.com/subject/iixtrktx.html