您的位置:首页 > 其它

为textView添加语音输入功能(集成讯飞语音识别)

2018-01-15 17:22 351 查看
非常感谢大家利用自己宝贵的时间来阅读我的文章 ,  今天给大家带来的是一个集成讯飞语音识别功能的小demo,为textview添加一个语音输入的功能,相信在这个智能化趋势的大环境的下,很多人能用得到这个功能。如果需要的话希望能帮到你 , 当然, 有任何不妥的地方 欢迎指正。喜欢的可以关注一下我的简书我的博客

先上demo --->XunFeiDemo

效果展示:



功能实现,sdk中提供了两种方式,一种是带界面的语音识别,有一个识别语音的动画的界面效果。另一种是无界面的。我这里使用的是带界面的,不带界面的自己可以去看一下,大同小异

第一步:去讯飞开发者平台注册账号、创建应用、下载SDK、拖入项目

第二步:添加依赖库

libz.tbd

AVFoundation.framework

SystemConfiguration.framework

Foundation.framework

CoreTelephony.framework

AudioToolbox.framework

UIKit.framework

AddressBook.framework

CoreLocation.framework

CoreGraphics.framework第三步:AppDelegate配置
- (BOOL)application:(UIApplication *)application didFinishLaunchingWithOptions:(NSDictionary *)launchOptions {

//存储路径

NSArray *paths = NSSearchPathForDirectoriesInDomains(NSCachesDirectory, NSUserDomainMask, YES);

NSString *cachePath = [paths objectAtIndex:0];

[IFlySetting setLogFilePath:cachePath];

//创建语音配置,appid必须要传入,仅执行一次则可

NSString *initString = [[NSString alloc] initWithFormat:@"appid=%@",@"你的appid"];

//所有服务启动前,需要确保执行createUtility

[IFlySpeechUtility createUtility:initString];

}


第四步:把demo里的ISRDataHelper.h及.m文件拖入项目中

第五步:控制器代码

1、引用头文件

#import "iflyMSC/IFlyMSC.h"

#import "ISRDataHelper.h"
2、初始化_iflyRecognizerView

//有界面

-(void)initRecognizer{

//单例模式,UI的实例

if (_iflyRecognizerView == nil) {

//UI显示剧中

_iflyRecognizerView= [[IFlyRecognizerView alloc] initWithCenter:self.view.center];

[_iflyRecognizerView setParameter:@"" forKey:[IFlySpeechConstant PARAMS]];

//设置听写模式

[_iflyRecognizerView setParameter:@"iat" forKey:[IFlySpeechConstant IFLY_DOMAIN]];

}

_iflyRecognizerView.delegate = self;

if (_iflyRecognizerView != nil) {

//设置最长录音时间

[_iflyRecognizerView setParameter:@"30000" forKey:[IFlySpeechConstant SPEECH_TIMEOUT]];

//设置后端点 3000

[_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_EOS]];

//设置前端点 3000

[_iflyRecognizerView setParameter:@"3000" forKey:[IFlySpeechConstant VAD_BOS]];

//设置采样率,推荐使用16K 16000

[_iflyRecognizerView setParameter:@"16000" forKey:[IFlySpeechConstant SAMPLE_RATE]];

// if ([instance.language isEqualToString:[IATConfig chinese]]) {

// //设置语言 zh_cn

[_iflyRecognizerView setParameter:@"zh_cn" forKey:[IFlySpeechConstant LANGUAGE]];

// //设置方言 mandarin

[_iflyRecognizerView setParameter:@"mandarin" forKey:[IFlySpeechConstant ACCENT]];

// }else if ([instance.language isEqualToString:[IATConfig english]]) {

// //设置语言

// [_iflyRecognizerView setParameter:instance.language forKey:[IFlySpeechConstant LANGUAGE]];

// }

// //设置是否返回标点符号 0

[_iflyRecognizerView setParameter:@"1" forKey:[IFlySpeechConstant ASR_PTT]];

}

}
3、按钮点击响应
-(void)startBtn{

if (_iflyRecognizerView == nil) {

[self initRecognizer ];

}

//设置音频来源为麦克风

[_iflyRecognizerView setParameter:IFLY_AUDIO_SOURCE_MIC forKey:@"audio_source"];

//设置听写结果格式为json

[_iflyRecognizerView setParameter:@"plain" forKey:[IFlySpeechConstant RESULT_TYPE]];

//保存录音文件,保存在sdk工作路径中,如未设置工作路径,则默认保存在library/cache下

[_iflyRecognizerView setParameter:@"asr.pcm" forKey:[IFlySpeechConstant ASR_AUDIO_PATH]];

[_iflyRecognizerView start];

}


4、代理方法,结果解析

- (void)onResult:(NSArray *)resultArray isLast:(BOOL)isLast

{

NSMutableString *result = [[NSMutableString alloc] init];

NSDictionary *dic = [resultArray objectAtIndex:0];

for (NSString *key in dic) {

[result appendFormat:@"%@",key];

}

self.textField.text =[NSString stringWithFormat:@"%@%@",_textField.text,result];

[_iflyRecognizerView cancel];

}

- (void)onError: (IFlySpeechError *) error

{

NSLog(@"识别出错");

}恩,理论上到这里就算完成~,这里仅提供一个参考,具体使用请查看集成文档
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐