0、录音前很重要的一步, 创建音频会话者
let audioSession = AVAudioSession.sharedInstance()
do {
try audioSession.setCategory(AVAudioSessionCategoryPlayAndRecord)
} catch {
print(error)
}
在整个录音或播放音频的过程中只需要初始化一次就好
其中setCategory的值决定这个会话者的功能
音频会话分类
分类 | 作用 | 是否允许跟其他应用混音 | 支持音频输入 | 支持音频输出 |
---|---|---|---|---|
AVAudioSessionCategoryAmbient | 一般app应用 | ✔️ | ✔️ | |
...SoloAmbient (默认) | 一般app应用 | ✔️ | ||
...Playback | 音频播放器 | 可选 | ✔️ | |
...Record | 录音机,音频捕捉 | ✔️ | ||
...PlayAndRecord | VoIp,语音聊天 | 可选 | ✔️ | ✔️ |
...AudioProcessing | 离线会话和处理(仅需要用到编解码处理功能的) | |||
...MultiRoute | 使用外设硬件的应用 | ✔️ | ✔️ |
其中一些分类可以使用option和modes进行进一步配置.
我们来看看AVAudioRecorder的API
1、初始化一个AVAudioRecorder对象
苹果提供了两个初始化方法
第一个初始化方法:
传入保存这个录音文件的URL路径, setting这个参数是个字典, 里面是一个音频设置信息,字典相对应的key, 可以去参考 AVAudioSettings.h ,值都是NSNumber类型
public init(url: URL, settings: [String : Any]) throws
```
第一个初始化AVAudioRecorder方法中的setting字典一般设置的内容, 可以参考相关术语概念[iOS 音频学习基本术语和概念](http://www.jianshu.com/p/3802d2c6f051)
`AVSampleRateKey: String` 采样率 8000, 44100等
`AVNumberOfChannelsKey: String` 声道数 1为单声道, 2为双声道(立体声)
`AVLinearPCMBitDepthKey: String` 位宽 数据一般为: 8, 16, 24, 32
`AVEncoderAudioQualityKey: String` 录音质量,在`AVAudioQuality`枚举中,值有`min low medium high max`四个
`AVLinearPCMIsBigEndianKey: String` 大小端编码:1为大端, 0为小端. 如果你不懂什么是大小端可以看[iOS 关于大小端以及一些数据补位](http://www.jianshu.com/p/79f349409cbf)
` AVFormatIDKey: String` 录音数据格式 可以参考CoreAudio 里面相关的值
其中 `AVFormatIDKey`的值有
public var kAudioFormatLinearPCM: AudioFormatID { get }
public var kAudioFormatAC3: AudioFormatID { get }
public var kAudioFormat60958AC3: AudioFormatID { get }
public var kAudioFormatAppleIMA4: AudioFormatID { get }
public var kAudioFormatMPEG4AAC: AudioFormatID { get }
public var kAudioFormatMPEG4CELP: AudioFormatID { get }
public var kAudioFormatMPEG4HVXC: AudioFormatID { get }
public var kAudioFormatMPEG4TwinVQ: AudioFormatID { get }
public var kAudioFormatMACE3: AudioFormatID { get }
public var kAudioFormatMACE6: AudioFormatID { get }
public var kAudioFormatULaw: AudioFormatID { get }
public var kAudioFormatALaw: AudioFormatID { get }
public var kAudioFormatQDesign: AudioFormatID { get }
public var kAudioFormatQDesign2: AudioFormatID { get }
public var kAudioFormatQUALCOMM: AudioFormatID { get }
public var kAudioFormatMPEGLayer1: AudioFormatID { get }
public var kAudioFormatMPEGLayer2: AudioFormatID { get }
public var kAudioFormatMPEGLayer3: AudioFormatID { get }
public var kAudioFormatTimeCode: AudioFormatID { get }
public var kAudioFormatMIDIStream: AudioFormatID { get }
public var kAudioFormatParameterValueStream: AudioFormatID { get }
public var kAudioFormatAppleLossless: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_HE: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_LD: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_ELD: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_ELD_SBR: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_ELD_V2: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_HE_V2: AudioFormatID { get }
public var kAudioFormatMPEG4AAC_Spatial: AudioFormatID { get }
public var kAudioFormatAMR: AudioFormatID { get }
public var kAudioFormatAMR_WB: AudioFormatID { get }
public var kAudioFormatAudible: AudioFormatID { get }
public var kAudioFormatiLBC: AudioFormatID { get }
public var kAudioFormatDVIIntelIMA: AudioFormatID { get }
public var kAudioFormatMicrosoftGSM: AudioFormatID { get }
public var kAudioFormatAES3: AudioFormatID { get }
public var kAudioFormatEnhancedAC3: AudioFormatID { get }
setting字典的代码:
////定义音频的编码参数,这部分比较重要,决定录制音频文件的格式、音质、容量大小等
let recordSettings = [AVSampleRateKey : NSNumber(value: Float(44100.0) as Float),//声音采样率
AVFormatIDKey : NSNumber(value: Int32(kAudioFormatMPEG4AAC) as Int32),//编码格式
AVNumberOfChannelsKey : NSNumber(value: 1 as Int32),//采集音轨
AVEncoderAudioQualityKey : NSNumber(value: Int32(AVAudioQuality.medium.rawValue) as Int32)]//音频质量
初始化代码:
do {
try audioRecorder = AVAudioRecorder(url: self.directoryURL()!,
settings: recordSettings)//初始化实例
audioRecorder.prepareToRecord()//准备录音
} catch {
print(error)
}
//录音保存路径
func directoryURL() -> URL? {
//定义并构建一个url来保存音频,音频文件名为ddMMyyyyHHmmss.caf
//根据时间来设置存储文件名
let currentDateTime = Date()
let formatter = DateFormatter()
formatter.dateFormat = "ddMMyyyyHHmmss"
let recordingName = formatter.string(from: currentDateTime)+".caf"
print(recordingName)
let fileManager = FileManager.default
let urls = fileManager.urls(for: .documentDirectory, in: .userDomainMask)
let documentDirectory = urls[0] as URL
let soundURL = documentDirectory.appendingPathComponent(recordingName)
return soundURL
}
>第二个初始化方法
传入保存这个录音文件的URL路径, 还有AVAudioFormat
@available(iOS 10.0, *)
public init(url: URL, format: AVAudioFormat) throws
`AVAudioFormat`其实就是包装了一下`Core Audio`框架中的`AudioStreamBasicDescription(asbd)`这个结构体,所以`AVAudioFormat`的初始化基本都要的参数都要传入`AudioStreamBasicDescription `的值
那么`AudioStreamBasicDescription`是什么呢, 简单理解就是描述音频的基本格式信息, 跟第一个初始化AVAudioRecorder方法中的setting差不多, 只是更详细
public struct AudioStreamBasicDescription {
public var mSampleRate: Float64 采样率
public var mFormatID: AudioFormatID 数据格式
public var mFormatFlags: AudioFormatFlags 数据格式的标志, 这个不知道干嘛的, 还没理解,linear PCM一般传kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked
public var mBytesPerPacket: UInt32 多少个字节每包
public var mFramesPerPacket: UInt32 多少帧每包
public var mBytesPerFrame: UInt32 多少个字节每一帧
public var mChannelsPerFrame: UInt32 声音通道数
public var mBitsPerChannel: UInt32 位宽 每个声音通道的位宽
public var mReserved: UInt32 预留属性
}
我们再看看提供的方法, 用起来还是比较简单的, 所以备注一下就好了
open func prepareToRecord() -> Bool 准备录音, 这个在录音之前要调用一下, 底层可能会给你做一些事
open func record() -> Bool 录音
@available(iOS 6.0, *)
open func record(atTime time: TimeInterval) -> Bool 在未来的某个时刻开始录音
open func record(forDuration duration: TimeInterval) -> Bool 录音, 控制时长
@available(iOS 6.0, *)
open func record(atTime time: TimeInterval, forDuration duration: TimeInterval) -> Bool 在未来的某段时间录多少时间的音频
open func pause() 暂停
open func stop() 停止
open func deleteRecording() -> Bool 删除录音
下面是属性
open var isRecording: Bool { get } 是否正在录音
open var url: URL { get } 录音存放的url
open var settings: [String : Any] { get } 录音格式配置字典
@available(iOS 10.0, *)
open var format: AVAudioFormat { get } 录音格式配置
unowned(unsafe) open var delegate: AVAudioRecorderDelegate? 代理
open var currentTime: TimeInterval { get } 当前录音的时长
@available(iOS 6.0, *)
open var deviceCurrentTime: TimeInterval { get } 设备当前时间
open func updateMeters() 更新音量等数据
open func peakPower(forChannel channelNumber: Int) -> Float 最高音量
open func averagePower(forChannel channelNumber: Int) -> Float 平均音量
@available(iOS 7.0, *)
open var channelAssignments: [AVAudioSessionChannelDescription]? 每个声音通道描述数组
录音操作代码:
@IBAction func startRecord(_ sender: AnyObject) {
//开始录音
if !audioRecorder.isRecording {
let audioSession = AVAudioSession.sharedInstance()
do {
try audioSession.setActive(true)
audioRecorder.record()
print("record!")
} catch {
}
}
}
@IBAction func stopRecord(_ sender: AnyObject) {
//停止录音
audioRecorder.stop()
let audioSession = AVAudioSession.sharedInstance()
do {
try audioSession.setActive(false)
print("stop!!")
} catch {
}
}
下面是录音器的代理
public protocol AVAudioRecorderDelegate : NSObjectProtocol {
@available(iOS 3.0, *)
optional public func audioRecorderDidFinishRecording(_ recorder: AVAudioRecorder, successfully flag: Bool) 录音成功的回调
@available(iOS 3.0, *)
optional public func audioRecorderEncodeErrorDidOccur(_ recorder: AVAudioRecorder, error: Error?) 录音发生错误的的回调
@available(iOS, introduced: 2.2, deprecated: 8.0)
optional public func audioRecorderBeginInterruption(_ recorder: AVAudioRecorder) 录音开始中断的回调
@available(iOS, introduced: 6.0, deprecated: 8.0)
optional public func audioRecorderEndInterruption(_ recorder: AVAudioRecorder, withOptions flags: Int) 录音结束中断的回调
###录音播放AVAudioPlayer
里面的属性和方法跟AVAudioRecorder差不多, 所以就不多说了, 附上简单的代码
@IBAction func startPlaying(_ sender: AnyObject) {
//开始播放
if (!audioRecorder.isRecording){
do {
try audioPlayer = AVAudioPlayer(contentsOf: audioRecorder.url)
audioPlayer.play()
print("play!!")
} catch {
}
}
}
@IBAction func pausePlaying(_ sender: AnyObject) {
//暂停播放
if (!audioRecorder.isRecording){
do {
try audioPlayer = AVAudioPlayer(contentsOf: audioRecorder.url)
audioPlayer.pause()
print("pause!!")
} catch {
}
}
}
网友评论