美文网首页代码质量收藏ios
iOS如何实现语音播报及后台播放

iOS如何实现语音播报及后台播放

作者: 奔跑的小蚂蚁_8b28 | 来源:发表于2017-06-29 11:40 被阅读3103次

    最近项目刚刚交付,偶然间用到了语音播报和语音搜索的功能。语音搜索我用的是讯飞的demo,感觉效果还不错,感兴趣的话可以去官网上面下载demo,里面讲的特别的详细,不过稍显麻烦一些。语音播报讯飞也有demo,不过做开发当然要寻求最简洁的处理方式,ios7.0之后新添加了一些新的功能,里面就有系统自带的语音播报库AVFoundation。关于语音播报的文章其实挺多的。文本转语音技术, 也叫TTS, 是Text To Speech的缩写. iOS如果想做有声书等功能的时候, 会用到这门技术.

    一,使用iOS自带TTS需要注意的几点:

    iOS7之后才有该功能

    需要 AVFoundation 库

    AVSpeechSynthesizer: 语音合成器, 可以假想成一个可以说话的人, 是最主要的接口

    AVSpeechSynthesisVoice: 可以假想成人的声音

    AVSpeechUtterance: 可以假想成要说的一段话

    二,代码示例, 播放语音

    //语音播报

    AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜。"];

    utterance.pitchMultiplier=0.8;

    //中式发音

    AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"];

    //英式发音

    //    AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"];

    utterance.voice = voice;

    NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]);

    AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init];

    [synth speakUtterance:utterance];

    三,AVSpeechSynthesizer介绍

    这个类就像一个会说话的人, 可以”说话”, 可以”暂停”说话, 可以”继续”说话, 可以判断他当前是否正在说话.有以下的方法或者属性:

    说话: speakUtterance

    控制: continueSpeaking(继续说), pauseSpeakingAtBoundary(暂停说话), paused(暂停状态的属性), speaking(说话的状态), stopSpeakingAtBoundary(停止说话)

    委托: delegate

    四,AVSpeechBoundary介绍

    这是一个枚举. 在暂停, 或者停止说话的时候, 停下的方式用这个枚举标示. 包括两种:

    AVSpeechBoundaryImmediate: 立即停

    AVSpeechBoundaryWord : 说完一个整词再停

    五,AVSpeechSynthesizerDelegate介绍

    合成器的委托, 对于一些事件, 提供了响应的接口.

    didCancelSpeechUtterance: 已经取消说话

    didContinueSpeechUtterance: 已经继续说话

    didFinishSpeechUtterance: 已经说完

    didPauseSpeechUtterance: 已经暂停

    didStartSpeechUtterance:已经开始

    willSpeakRangeOfSpeechString:将要说某段话

    六,AVSpeechSynthesisVoice介绍

    AVSpeechSynthesisVoice定义了一系列的声音, 主要是不同的语言和地区.

    voiceWithLanguage: 根据制定的语言, 获得一个声音.

    speechVoices: 获得当前设备支持的声音

    currentLanguageCode: 获得当前声音的语言字符串, 比如”ZH-cn”

    language: 获得当前的语言

    七,AVSpeechUtterance介绍

    这个类就是一段要说的话. 主要的属性和方法有:

    pitchMultiplier: 音高

    postUtteranceDelay: 读完一段后的停顿时间

    preUtteranceDelay: 读一段话之前的停顿

    rate: 读地速度, 系统提供了三个速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate

    speechString: 要读的字符串

    voice: 使用的声音, 是AVSpeechSynthesisVoice对象

    上面这些是关于语音播报的基本用法和一些属性、方法,但是如何结合程序推送,在程序后台运行的时候实现语音播报的效果呢?当然还有很多需要注意的地方。

    1.启用推送唤醒

    和上面的后台获取类似,更改Info.plist,在UIBackgroundModes下加入remote-notification即可开启,当然同样的更简单直接的办法是使用Capabilities,勾选下面的三个modes。

    2.更改推送的payload

    在iOS7中,如果想要使用推送来唤醒应用运行代码的话,需要在payload中加入content-available,并设置为1。

    {"aps":{"content-available":1,"alert":"今天是个好天气"}}

    "content-available":1  推送唤醒

    "alert":""  推送内容

    "badge":1   app右上角数字

    “sound”:”default”   默认声音

    aps

    {

    content-available: 1

    alert: {...}

    }

    3.实现推送唤醒代码并通知系统

    最后在appDelegate中实现-application:didReceiveRemoteNotification:fetchCompletionHandle:。这部分内容和上面的后台获取部分完全一样,在此不再重复。

    //接收到推送消息

    - (void)application:(UIApplication *)application didReceiveRemoteNotification:(NSDictionary *)userInfo fetchCompletionHandler:(nonnull void (^)(UIBackgroundFetchResult))completionHandler {

    NSLog(@"remote: %@", userInfo);

    //回调

    completionHandler(UIBackgroundFetchResultNewData);

    //语音播报

    AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:userInfo[@"aps"][@"alert"]];

    AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc] init];

    [synth speakUtterance:utterance];

    }

    完成以上步骤就可在后台进行语音播报了。

    参考文章链接:

    一、http://www.jianshu.com/p/174fd2673897

    二、https://onevcat.com/2013/08/ios7-background-multitask/

    三、http://hayageek.com/ios-silent-push-notifications/

    四、http://blog.csdn.net/u012477117/article/details/52039506

    五、http://www.cnblogs.com/luerniu/p/5901350.html

    六、https://www.oschina.net/question/2556708_2194798

    相关文章

      网友评论

      • dda5a2cf4502:您好!看了您的文章收获很大,但是目前还有一个问题。我是用极光推送,按照您文章里的操作,现在推送过来的消息在手机后台运行时无法语音播报,但是随后点击进入app后就会进行播报。我想实现推送过来直接播报,不知道是哪里的问题。
        奔跑的小蚂蚁_8b28:可以看看第一条评论
      • 春田花花幼儿园:应用杀死情况下可以用吗? 可以上架通过吗?
        春田花花幼儿园:@奔跑的小蚂蚁_8b28 作者你好,你们推送用的自己的吗?还是哪个第三方?
        春田花花幼儿园:@奔跑的小蚂蚁_8b28 :+1:
        奔跑的小蚂蚁_8b28:@春田花花幼儿园 可以的,我做过的好几个项目都正常发布了
      • 友情或许更可靠:我按照你这样写怎么切入后台后没有声音那? 代码执行了 但是没有声音
        友情或许更可靠:@奔跑的小蚂蚁_8b28 你有遇到过这种报错吗?
        友情或许更可靠:@奔跑的小蚂蚁_8b28 嗯,现在可以播报了。但是会有个别用户报异常。 0 libobjc.A.dylib objc_msgSend + 16 1 AVFAudio LocalPlayerHandleCallback(AVAudioPlayer*, unsigned int, unsigned long, void const*) + 320 2 AVFAudio AVAudioPlayerCpp::sessionPropertyListener(unsigned int, unsigned int, void const*) + 208
        奔跑的小蚂蚁_8b28:capabilities模块下background modes Audio,Airplay,andPicture in Picture得勾选,当时写博客的时候放了个截图没显示出来

      本文标题:iOS如何实现语音播报及后台播放

      本文链接:https://www.haomeiwen.com/subject/dyjmcxtx.html