美文网首页IOS个人开发
AudioUnit框架详细解析(十五) —— 音频流格式启用数据

AudioUnit框架详细解析(十五) —— 音频流格式启用数据

作者: 刀客传奇 | 来源:发表于2018-06-28 10:01 被阅读653次

    版本记录

    版本号 时间
    V1.0 2018.06.28

    前言

    AudioUnit框架作为您的应用程序添加复杂的音频操作和处理功能。 创建在主机应用程序中生成或修改音频的音频单元扩展。接下来几篇我们就一起看一下这个框架,感兴趣的看上面几篇文章。
    1. AudioUnit框架详细解析(一) —— 基本概览
    2. AudioUnit框架详细解析(二) —— 关于Audio Unit Hosting之概览(一)
    3. AudioUnit框架详细解析(三) —— 关于Audio Unit Hosting之如何使用本文档和参考资料(二)
    4. AudioUnit框架详细解析(四) —— 音频单元提供快速的模块化音频处理之iOS中的Audio Units(一)
    5. AudioUnit框架详细解析(五) —— 音频单元提供快速的模块化音频处理之在Concert中使用两个音频单元API(二)
    6. AudioUnit框架详细解析(六) —— 音频单元提供快速的模块化音频处理之使用标识符来指定和获取音频单元(三)
    7. AudioUnit框架详细解析(七) —— 音频单元提供快速的模块化音频处理之使用范围和元素来指定音频单元的部分(四)
    8. AudioUnit框架详细解析(八) —— 音频单元提供快速的模块化音频处理之使用属性来配置音频单元(五)
    9. AudioUnit框架详细解析(九) —— 音频单元提供快速的模块化音频处理之使用参数和UIKit为用户提供控制(六)
    10. AudioUnit框架详细解析(十) —— 音频单元提供快速的模块化音频处理之I / O单元的基本特性(七)
    11. AudioUnit框架详细解析(十一) —— 音频处理图管理音频单元之音频处理图具有一个I / O单元(一)
    12. AudioUnit框架详细解析(十二) —— 音频处理图管理音频单元之音频处理图提供线程安全性(二)
    13. AudioUnit框架详细解析(十三) —— 音频处理图管理音频单元之音频使用Pull通过图表(三)
    14. AudioUnit框架详细解析(十四) —— 呈现回调函数将音频馈送到音频单元之了解音频单元呈现回调函数(一)

    Audio Stream Formats Enable Data Flow - 音频流格式启用数据流

    在使用单个采样级别的音频数据时,与使用音频单元时一样,仅指定正确的数据类型来表示音频是不够的。 单个音频采样值中bits的布局具有含义,因此像Float32UInt16这样的数据类型不够表达。 在本节中,您将了解Core Audio解决此问题的方法


    Working with the AudioStreamBasicDescription structure - 使用AudioStreamBasicDescription结构

    音频值在您的应用程序以及您的应用程序和音频硬件之间移动的流是AudioStreamBasicDescription结构,如Listing 1-6所示,并在Core Audio Data Types Reference中进行了完整描述。

    Listing 1-6 The AudioStreamBasicDescription structure
    
      struct AudioStreamBasicDescription {
          Float64 mSampleRate;
          UInt32  mFormatID;
          UInt32  mFormatFlags;
          UInt32  mBytesPerPacket;
          UInt32  mFramesPerPacket;
          UInt32  mBytesPerFrame;
          UInt32  mChannelsPerFrame;
          UInt32  mBitsPerChannel;
          UInt32  mReserved;
      };
      typedef struct AudioStreamBasicDescription  AudioStreamBasicDescription;
    

    由于名称AudioStreamBasicDescription很长,因此在对话和文档中通常会缩写为ASBD。 要为ASBD的字段定义值,请编写类似于Listing 1-7中所示的代码。

    Listing 1-7 Defining an ASBD for a stereo stream
    
    size_t bytesPerSample = sizeof (AudioUnitSampleType);
    AudioStreamBasicDescription stereoStreamFormat = {0};
    
    stereoStreamFormat.mFormatID  = kAudioFormatLinearPCM;
    stereoStreamFormat.mFormatFlags  = kAudioFormatFlagsAudioUnitCanonical;
    stereoStreamFormat.mBytesPerPacket = bytesPerSample;
    stereoStreamFormat.mBytesPerFrame = bytesPerSample;
    stereoStreamFormat.mFramesPerPacket   = 1;
    stereoStreamFormat.mBitsPerChannel = 8 * bytesPerSample;
    stereoStreamFormat.mChannelsPerFrame  = 2;           // 2 indicates stereo
    stereoStreamFormat.mSampleRate        = graphSampleRate;
    

    首先,确定数据类型以表示一个音频采样值。 本示例使用AudioUnitSampleType定义的类型,这是大多数音频单元的推荐数据类型。 在iOS中,AudioUnitSampleType被定义为8.24定点整数。 Listing 1-7中的第一行计算类型中的字节数; 在定义ASBD的某些字段值时需要该编号,如清单所示。

    接下来,仍然参考Listing 1-7,声明一个类型为AudioStreamBasicDescription的变量并将其字段初始化为0以确保没有字段包含垃圾数据。 不要跳过这个调零步骤; 如果你这样做,你肯定会在稍后遇到麻烦。

    现在定义ASBD字段值。 为mFormatID字段指定kAudioFormatLinearPCM。 音频单元使用未压缩的音频数据,所以无论何时使用音频单元,这都是正确的格式标识符。

    接下来,对于大多数音频单元,请为mFormatFlags字段指定kAudioFormatFlagsAudioUnitCanonical元标志。 该标志在CoreAudio.framework / CoreAudioTypes.h中定义如下:

    kAudioFormatFlagsAudioUnitCanonical = kAudioFormatFlagIsFloat |
                                    kAudioFormatFlagsNativeEndian |
                                         kAudioFormatFlagIsPacked |
                                 kAudioFormatFlagIsNonInterleaved
    

    该元标记负责为类型为AudioUnitSampleType的线性PCM样本值中的bits指定所有布局细节。

    某些音频单元采用非典型音频数据格式,要求样本采用不同的数据类型,而mFormatFlags字段采用不同的标志集。例如,3D混音器单元需要针对其音频采样值使用UInt16数据类型,并要求将ASBDmFormatFlags字段设置为kAudioFormatFlagsCanonical。使用特定的音频设备时,请小心使用正确的数据格式和正确的格式标志。 (请参阅Using Specific Audio Units

    继续Listing 1-7,接下来的四个字段进一步指定了示例框架中的位的组织和含义。根据您正在使用的音频流的性质,设置这些字段-mBytesPerPacketmBytesPerFramemFramesPerPacketmBitsPerChannel字段。要了解每个这些字段的含义,请参阅AudioStreamBasicDescription结构的文档。您可以在示例代码项目Audio Mixer(MixerHost)中看到填充ASBD的示例。

    根据音频流中的通道数量设置ASBDmChannelsPerFrame字段,1 为 mono audio, 2 为stereo,依此类推。

    最后,根据您在应用中使用的采样率设置mSampleRate字段。 Understanding Where and How to Set Stream Formats说明了避免采样率转换的重要性。 Configure Your Audio Session介绍了如何确保应用程序的采样率与音频硬件采样率匹配。

    您可以使用CAStreamBasicDescription.h文件(/ Developer / Extras / CoreAudio / PublicUtility /)中提供的C ++实用程序方法,而不是按字段指定ASBD字段。 特别是查看SetAUCanonicalSetCanonical C ++方法。 这些指定了三个因素推导ASBD字段值的正确方法:

    • 流是用于I / O(SetCanonical)还是用于音频处理(SetAUCanonical)
    • 您希望流格式表示多少个通道
    • 您想要的流格式是交错式还是非交错式

    无论您是否在项目中包含CAStreamBasicDescription.h文件以直接使用其方法,Apple建议您研究该文件以了解使用AudioStreamBasicDescription结构的正确方法。

    有关如何解决与音频数据流格式有关的问题的想法,请参阅 Troubleshooting Tips

    后记

    本篇主要讲述了使用AudioStreamBasicDescription结构,感兴趣的给个赞或者关注~~~~

    相关文章

      网友评论

        本文标题:AudioUnit框架详细解析(十五) —— 音频流格式启用数据

        本文链接:https://www.haomeiwen.com/subject/vygwyftx.html