iOS自带TTS技术的实现即语音播报
2016-09-23 18:45
1056 查看
文本转语音技术, 也叫TTS, 是Text To Speech的缩写. iOS如果想做有声书等功能的时候, 会用到这门技术.
一,使用iOS自带TTS需要注意的几点:
iOS7之后才有该功能
需要 AVFoundation 库
AVSpeechSynthesizer: 语音合成器, 可以假想成一个可以说话的人, 是最主要的接口
AVSpeechSynthesisVoice: 可以假想成人的声音
AVSpeechUtterance: 可以假想成要说的一段话
二,代码示例, 播放语音
三,AVSpeechSynthesizer介绍
这个类就像一个会说话的人, 可以”说话”, 可以”暂停”说话, 可以”继续”说话, 可以判断他当前是否正在说话.有以下的方法或者属性:
说话: speakUtterance
控制: continueSpeaking(继续说), pauseSpeakingAtBoundary(暂停说话), paused(暂停状态的属性), speaking(说话的状态), stopSpeakingAtBoundary(停止说话)
委托: delegate
四,AVSpeechBoundary介绍
这是一个枚举. 在暂停, 或者停止说话的时候, 停下的方式用这个枚举标示. 包括两种:
AVSpeechBoundaryImmediate: 立即停
AVSpeechBoundaryWord : 说完一个整词再停
五,AVSpeechSynthesizerDelegate介绍
合成器的委托, 对于一些事件, 提供了响应的接口.
didCancelSpeechUtterance: 已经取消说话
didContinueSpeechUtterance: 已经继续说话
didFinishSpeechUtterance: 已经说完
didPauseSpeechUtterance: 已经暂停
didStartSpeechUtterance:已经开始
willSpeakRangeOfSpeechString:将要说某段话
六,AVSpeechSynthesisVoice介绍
AVSpeechSynthesisVoice定义了一系列的声音, 主要是不同的语言和地区.
voiceWithLanguage: 根据制定的语言, 获得一个声音.
speechVoices: 获得当前设备支持的声音
currentLanguageCode: 获得当前声音的语言字符串, 比如”ZH-cn”
language: 获得当前的语言
七,AVSpeechUtterance介绍
这个类就是一段要说的话. 主要的属性和方法有:
pitchMultiplier: 音高
postUtteranceDelay: 读完一段后的停顿时间
preUtteranceDelay: 读一段话之前的停顿
rate: 读地速度, 系统提供了三个速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate
speechString: 要读的字符串
voice: 使用的声音, 是AVSpeechSynthesisVoice对象
volume: 音量
八,UML关系图
这些类的关系如下:
一,使用iOS自带TTS需要注意的几点:
iOS7之后才有该功能
需要 AVFoundation 库
AVSpeechSynthesizer: 语音合成器, 可以假想成一个可以说话的人, 是最主要的接口
AVSpeechSynthesisVoice: 可以假想成人的声音
AVSpeechUtterance: 可以假想成要说的一段话
二,代码示例, 播放语音
//语音播报 AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜。"]; utterance.pitchMultiplier=0.8; //中式发音 AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"]; //英式发音 // AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"]; utterance.voice = voice; NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]); AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init]; [synth speakUtterance:utterance];
三,AVSpeechSynthesizer介绍
这个类就像一个会说话的人, 可以”说话”, 可以”暂停”说话, 可以”继续”说话, 可以判断他当前是否正在说话.有以下的方法或者属性:
说话: speakUtterance
控制: continueSpeaking(继续说), pauseSpeakingAtBoundary(暂停说话), paused(暂停状态的属性), speaking(说话的状态), stopSpeakingAtBoundary(停止说话)
委托: delegate
四,AVSpeechBoundary介绍
这是一个枚举. 在暂停, 或者停止说话的时候, 停下的方式用这个枚举标示. 包括两种:
AVSpeechBoundaryImmediate: 立即停
AVSpeechBoundaryWord : 说完一个整词再停
五,AVSpeechSynthesizerDelegate介绍
合成器的委托, 对于一些事件, 提供了响应的接口.
didCancelSpeechUtterance: 已经取消说话
didContinueSpeechUtterance: 已经继续说话
didFinishSpeechUtterance: 已经说完
didPauseSpeechUtterance: 已经暂停
didStartSpeechUtterance:已经开始
willSpeakRangeOfSpeechString:将要说某段话
六,AVSpeechSynthesisVoice介绍
AVSpeechSynthesisVoice定义了一系列的声音, 主要是不同的语言和地区.
voiceWithLanguage: 根据制定的语言, 获得一个声音.
speechVoices: 获得当前设备支持的声音
currentLanguageCode: 获得当前声音的语言字符串, 比如”ZH-cn”
language: 获得当前的语言
七,AVSpeechUtterance介绍
这个类就是一段要说的话. 主要的属性和方法有:
pitchMultiplier: 音高
postUtteranceDelay: 读完一段后的停顿时间
preUtteranceDelay: 读一段话之前的停顿
rate: 读地速度, 系统提供了三个速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate
speechString: 要读的字符串
voice: 使用的声音, 是AVSpeechSynthesisVoice对象
volume: 音量
八,UML关系图
这些类的关系如下:
相关文章推荐
- iOS自带文本转语音技术(TTS)的实现即语音播报的实践
- iOS项目开发—TTS技术的实现即语音播报(实现方法一)
- iOS项目开发—TTS技术的实现即语音播报(实现方法一)
- ios项目开发—TTS技术的实现即语音播报(实现方法二)
- 使用Android自带的TTS实现语音播报(电话号码)功能
- iOS如何实现语音播报及后台播放
- android 语音播报(通过手说tts 实现中文语音播报)
- 新浪微博项目---首页技术点三.上拉刷新,下拉加载的实现(使用ios自带的小菊花实现)
- iOS开发TTS技术即文本转语音
- javascript调用TTS实现语音播报html文本信息
- 【VC++技术杂谈004】使用微软TTS语音引擎实现文本朗读
- 【VC++技术杂谈004】使用微软TTS语音引擎实现文本朗读
- iOS如何实现语音播报及后台播放
- iOS 使用科大讯飞技术实现语音转文字(语音听写)
- ios语音播报TTS
- 用c#实现语音技术
- Delphi 实现简易语音发音(基于TTS方式)
- DotNet语音技术实现(实现电脑发音)
- 谷歌金山词霸中自定义TTS语音的实现(告别难听的默认男声!)
- 【转】VC用TTS实现文字语音朗读