美文网首页
AVFoundation视听技术学习

AVFoundation视听技术学习

作者: Little_Dragon | 来源:发表于2016-06-22 15:00 被阅读225次

    最近赶上京东618活动, 感觉终于可以买书了, 一口气买了8本,发现桌子腿再也不会不平了. 😄😄

    第一本AVFoundation 视听技术学习. 与时俱进的同时一定要注意基础的东西哦.
    第一章的有些东西太理论, 必须有一定大学知识基础或者波形基础的人才能看的懂, 这里我也是讲的不太明白,所以需要大家去慢慢学习慢慢看了.

    代码第一部分.
    初识AVFoundation ->NSSpeechSynthesizer 主要功能就是 控制着文本转语音单元的播放, 综合解析器吧

    为什么我把称之为综合语音播放解析器, 看里面的API 应该就会有一定的理解了吧.

    @interface AVSpeechSynthesizer : NSObject
    // 代理 主要是对 语音单元播放状态的 监听 
    @property(nonatomic, assign, nullable) 
    id<AVSpeechSynthesizerDelegate> delegate;
    
    // 这里 我们能得到 播放的状态.  为什么是只读属性呢,  我觉得他是 以 音频单元 为点进行播放, 中途不可以采用 这些 . 后面的属性有进行说明
    @property(nonatomic, readonly, getter=isSpeaking) BOOL speaking;
    @property(nonatomic, readonly, getter=isPaused) BOOL paused;
    
    /* AVSpeechUtterances are queued by default. 
       Enqueing the same AVSpeechUtterance that is already enqueued or is speaking will raise an exception. */
    // 读取 单元语音,  默认添加  就读取
    - (void)speakUtterance:(AVSpeechUtterance *)utterance;
    
    /* These methods will operate on the speech utterance that is speaking. Returns YES if it succeeds, NO for failure. */
    
    /* Call stopSpeakingAtBoundary: to interrupt current speech and clear the queue. */
    //  对于 语音单元的操作
    - (BOOL)stopSpeakingAtBoundary:(AVSpeechBoundary)boundary;
    - (BOOL)pauseSpeakingAtBoundary:(AVSpeechBoundary)boundary;
    - (BOOL)continueSpeaking;
    
    @end
    

    AVSpeechSynthesizerDelegate 代理方法

    @protocol AVSpeechSynthesizerDelegate <NSObject>
    // 代理方法
    @optional
    // 开始播放 语音单元
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didStartSpeechUtterance:(AVSpeechUtterance *)utterance;
    // 完成播放 语音单元
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didFinishSpeechUtterance:(AVSpeechUtterance *)utterance;
    // 暂停播放 语音单元
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didPauseSpeechUtterance:(AVSpeechUtterance *)utterance;
    // 继续播放 语音单元
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didContinueSpeechUtterance:(AVSpeechUtterance *)utterance;
    //取消播放 语音单元
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didCancelSpeechUtterance:(AVSpeechUtterance *)utterance;
    // 这里 指的是  又来监听 播放 字符范围
    - (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer willSpeakRangeOfSpeechString:(NSRange)characterRange utterance:(AVSpeechUtterance *)utterance;
    @end
    

    好了API 基本解读完毕, 这里看到了, 我想要进行 文本转换语音, 必须要有 综合语音解析器, 语音单元的添加. 才可以进行这一项工作.
    那么什么是语音单元 AVSpeechUtterance API是这样利用的:

    @interface AVSpeechUtterance : NSObject<NSCopying, NSSecureCoding>
    // 类方法, 工厂构造器 , 利用 String字符串  创建音频单元
    + (instancetype)speechUtteranceWithString:(NSString *)string;
    // 初始化方法
    - (instancetype)initWithString:(NSString *)string;
    
    /* If no voice is specified, the system's default will be used. */
    // 设置 语音解析器 所要用的 语言, en-us  en-gb  zh-cn等等 , 英语, 美式英语, 中文. 当然我喜欢中文
    @property(nonatomic, retain, nullable) AVSpeechSynthesisVoice *voice;
    //  获取 语音单元的 String,  这里就能看出来 , 此类不允许单独给String
    @property(nonatomic, readonly) NSString *speechString;
    
    /* Setting these values after a speech utterance has been enqueued will have no effect. */
    // 以下的设置都是 对语音的单项设置
    
    // 语速
    @property(nonatomic) float rate;             // Values are pinned between AVSpeechUtteranceMinimumSpeechRate and AVSpeechUtteranceMaximumSpeechRate.
    // 语调
    @property(nonatomic) float pitchMultiplier;  // [0.5 - 2] Default = 1
    // 声音
    @property(nonatomic) float volume;           // [0-1] Default = 1
    // 前置延迟
    @property(nonatomic) NSTimeInterval preUtteranceDelay;    // Default is 0.0
    // 后置延迟
    @property(nonatomic) NSTimeInterval postUtteranceDelay;   // Default is 0.0
    
    @end
    

    经过这么一个分析, 就会发现 文本转语音是如此的简单

    //
    //  THSpeechController.m
    //  文本到语音的转换
    //
    //  Created by 博兴 on 16/6/22.
    //  Copyright © 2016年 bx. All rights reserved.
    //
    
    #import "THSpeechController.h"
    @interface THSpeechController()
    // 外部提供接口, 内部重写属性的话, 是的内外用法不同
    @property(nonatomic, strong) AVSpeechSynthesizer *synthesizer;
    
    @property(strong, nonatomic) NSArray *speechStrings;
    @end
    
    @implementation THSpeechController
    
    - (instancetype)init{
        
        if([super init]){
            // 初始化话 语音综合器
            self.synthesizer = [[AVSpeechSynthesizer alloc]init];
            self.speechStrings = @[@"我爱你",@"中国",@"中国"];
            
        }
        return self;
    }
    + (instancetype)speechController
    {
        return [[self alloc]init];
    }
    - (void)beginConversation
    {
        for (NSString *str in self.speechStrings) {
            AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:str];
            utterance.voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];
    //        utterance.postUtteranceDelay = 1.0f;
            [self.synthesizer speakUtterance:utterance];
        }
    
    }
    @end
    

    相关文章

      网友评论

          本文标题:AVFoundation视听技术学习

          本文链接:https://www.haomeiwen.com/subject/xkqndttx.html