文档

iOS SDK

更新时间:

本文介绍了如何使用阿里云智能语音服务提供的iOS NUI SDK,包括SDK下载安装、关键接口及代码示例。

前提条件

下载安装

  1. 下载SDK和示例代码

    说明

    下载后请在样例初始化代码中替换您的阿里云账号信息、Appkey和Token才可运行。为方便集成,2.5.14版本后iOS接口使用纯Object-C接口,不再使用C++混合接口。

    类别

    兼容范围

    系统

    最低支持iOS9

    架构

    arm64,x86_64

    此SDK还包含如下功能,若未支持您想要的功能,请前往对应文档获取SDK。

    功能

    是否支持

    一句话识别

    实时语音识别

    语音合成

    实时长文本语音合成

    离线语音合成

    录音文件识别极速版

    唤醒及命令词

  2. 解压ZIP包,将ZIP包中的nuisdk.framework添加到您的工程中,并在工程Build Phases的Link Binary With Libraries中添加nuisdk.framework。请确保在编译配置的General > Frameworks, Libraries, and Embedded Content中配置nuisdk.framework为Embed & Sign。

  3. 使用Xcode打开此工程,工程中提供了参考代码以及一些直接可使用的工具类,例如音频播放录制和文件操作,您可以直接复制源码到您的实际工程进行使用。其中语音合成示例代码在TTSViewController类中。

SDK关键接口

  • tts_initialize:初始化SDK

    /**
     * 初始化SDK,SDK为单例,请先释放后再次进行初始化。请勿在UI线程调用,意外下可能引起阻塞。
     * @param parameters: 初始化参数,参见下方说明或接口说明:https://help.aliyun.com/document_detail/173642.html
     * @param level: log打印级别,值越小打印越多
     * @param save_log: 是否保存log为文件,存储目录为parameter中的debug_path字段值
     * @return 参考错误码:https://help.aliyun.com/document_detail/459864.html
     */
    -(int) nui_tts_initialize:(const char *)parameters
                     logLevel:(NuiSdkLogLevel)level
                      saveLog:(BOOL)save_log;
  • nui_tts_play: 开始播放

    /**
     * 开始播放
     * @param priority: 任务优先级,请使用"1"
     * @param taskid: 任务id,可传入32个字节的uuid或者传入空内容由SDK自动生成
     * @param text: 要播放的文本内容
     * @return 参考错误码:https://help.aliyun.com/document_detail/459864.html
     */
    -(int) nui_tts_play:(const char *)priority
                 taskId:(const char *)taskid
                  text:(const char *)text;
  • nui_tts_cancel:取消播放

    /**
     * 取消合成任务
     * @param taskid: 传入想要停止的任务id,如果为空则取消所有任务
     * @return:参见错误码:https://help.aliyun.com/document_detail/459864.html。
     */
    -(int) nui_tts_cancel:(const char *)taskid;
  • nui_tts_pause:暂停播放

    /**
     * 暂停
     * @return 参考错误码
     */
    -(int) nui_tts_pause;
  • nui_tts_resume:恢复播放

    /**
     * 恢复暂停的任务
     * @return 参考错误码
     */
    -(int) nui_tts_resume;
  • nui_tts_set_param:设置语音合成参数

    /**
     * 以键值对形式设置参数
     * @param param: 参数名,参考接口说明
     * @param value: 参数值,参考接口说明
     * @return 参考错误码
     */
    -(int) nui_tts_set_param:(const char *)param
                       value:(const char *)value;
  • nui_tts_get_param:获取参数

    /**
     * 获取参数值
     * @param param: 参数名,参考接口说明
     * @return 参数值
     */
    -(const char *) nui_tts_get_param:(const char *)param;
  • nui_tts_release: 释放SDK资源

    /**
     * 释放SDK
     * @return 参考错误码
     */
    -(int) nui_tts_release;
  • NeoNuiTtsDelegate 事件代理

    • onNuiTtsUserdataCallback:在回调中提供音频数据。

      /**
       * 当开始识别时,此回调被连续调用,App需要在回调中进行语音数据填充,语音数据来自App的录音
       * @param info: 在使用时间戳功能时返回时间戳结果,json格式
       * @param info_len: info字段的数据长度
       * @param buffer: 合成的语音数据
       * @param len: 合成的语音长度
       * @param taskid: 本次合成的任务id
       */
      - (void)onNuiTtsUserdataCallback:(char*)info infoLen:(int)info_len buffer:(char*)buffer len:(int)len taskId:(char*)task_id;
  • onNuiTtsEventCallback: 事件回调。

    /**
     * SDK主要事件回调
     * @param event: 回调事件,参考接口说明
     * @param taskid: 本次合成的任务id
     * @param code: 参考错误码,TTS_EVENT_ERROR时有效
     */
    - (void)onNuiTtsEventCallback:(NuiSdkTtsEvent)event taskId:(char*)taskid code:(int)code;
  • NuiSdkTtsEvent事件列表:

    名称

    说明

    TTS_EVENT_START

    语音合成开始,准备播放。

    TTS_EVENT_END

    语音合成结束,合成数据已全部抛出,但并不表示播放结束。

    TTS_EVENT_CANCEL

    取消语音合成。

    TTS_EVENT_PAUSE

    语音合成暂停。

    TTS_EVENT_RESUME

    语音合成恢复。

    TTS_EVENT_ERROR

    语音合成发生错误。

  • onNuiTtsVolumeCallback:合成数据音量回调。

    /**
     * SDK主要事件回调
     * @param volume: 合成的语音的能量,可用于动画显示等
     * @param taskid: 本次合成的任务id
     */
    -(void)onNuiTtsVolumeCallback:(int)volume taskId:(char*)task_id;

调用步骤

  1. 初始化SDK和播放组件。

  2. 根据业务需要设置参数。

  3. 调用nui_tts_play进行播放。

  4. 在合成数据回调中,将数据写入播放器进行播放,建议使用流式播放。

  5. 收到语音合成结束的回调。

代码示例

说明

接口默认采用get_instance方式获得单例,您如果有多例需求,也可以直接alloc对象进行使用。

语音合成初始化

NSString * initParam = [self genInitParams];
[_nui nui_tts_initialize:[initParam UTF8String] logLevel:LOG_LEVEL_VERBOSE saveLog:true];

其中,genInitParams生成为String JSON字符串,包含资源目录和用户信息。其中用户信息包含如下字段。

//账号和项目创建
//  ak_id ak_secret app_key如何获得,请查看https://help.aliyun.com/document_detail/72138.html
[dictM setObject:@"<您申请创建的app_key>" forKey:@"app_key"]; // 必填

//方法1:
//  首先ak_id ak_secret app_key如何获得,请查看https://help.aliyun.com/document_detail/72138.html
//  然后请看 https://help.aliyun.com/document_detail/466615.html 使用其中方案一获取临时凭证
//  此方案简介: 远端服务器使用以下方法获得有效时限的临时凭证, 下发给移动端进行使用, 保证账号信息ak_id和ak_secret不被泄露
//  获得Token方法(运行在APP服务端): https://help.aliyun.com/document_detail/450255.html?spm=a2c4g.72153.0.0.79176297EyBj4k
[dictM setObject:@"<服务器生成的具有时效性的临时凭证>" forKey:@"token"]; // 必填

//方法2:
//  STS获取临时凭证方法暂不支持

NSString *id_string = [[[ASIdentifierManager sharedManager] advertisingIdentifier] UUIDString];
[dictM setObject:id_string forKey:@"device_id"]; // 必填, 推荐填入具有唯一性的id, 方便定位问题

// 设置成在线语音合成模式, 这个设置很重要, 遗漏会导致无法运行
[dictM setObject:@"2" forKey:@"mode_type"]; // 必填

根据需求设置参数

//可以设置发音人、语调和语速等参数,参数列表参见接口说明。
[self.nui nui_tts_set_param:"font_name" value:"xiaoyun"];

启动语音合成

//建议同一时间单示例启动一个task进行语音合成,单实例多task易出异常。
[self.nui nui_tts_play:"1" taskId:"" text:[content UTF8String]];

回调处理

  • onNuiTtsEventCallback:语音合成事件回调,根据语音合成状态控制播放器。

    - (void)onNuiTtsEventCallback:(NuiSdkTtsEvent)event taskId:(char*)taskid code:(int)code {
        TLog(@"onNuiTtsEventCallback event[%d]", event);
        if (event == TTS_EVENT_START) {
            TLog(@"onNuiTtsEventCallback TTS_EVENT_START");
            loop_in = TTS_EVENT_START;
            // 启动播放器
            [self->_voicePlayer play];
        } else if (event == TTS_EVENT_END || event == TTS_EVENT_CANCEL || event == TTS_EVENT_ERROR) {
            loop_in = event;
            if (event == TTS_EVENT_END) {
                TLog(@"onNuiTtsEventCallback TTS_EVENT_END");
                // 注意这里的event事件是指语音合成完成,而非播放完成,播放完成需要由voicePlayer对象来进行通知
                [self->_voicePlayer drain];
            } else {
                // 取消播报、或者发生异常时终止播放
                [self->_voicePlayer stop];
            }
            if (event == TTS_EVENT_ERROR) {
                const char *errmsg = [_nui nui_tts_get_param: "error_msg"];
                TLog(@"tts get errmsg:%s", errmsg);
            }
        }
    }
  • onNuiTtsUserdataCallback:语音合成数据回调,将回调中的合成数据写入播放器进行播放。

    - (void)onNuiTtsUserdataCallback:(char*)info wordIdx:(int)info_len buffer:(char*)buffer len:(int)len taskId:(char*)task_id {
        TLog(@"onNuiTtsUserdataCallback info ...");
        if (info_len > 0) {
            TLog(@"onNuiTtsUserdataCallback info text %s. index %d.", info, info_len);
        }
        if (len > 0) {
            [_voicePlayer write:(char*)buffer Length:(unsigned int)len];
        }
    }

结束语音合成

[self.nui nui_tts_cancel:NULL];

常见问题

使用在线合成语音iOS SDK,写入文件播放声音是杂音,是什情况?

首先需要确认合成音频格式(PCM、WAV、MP3),如存储的音频流是MP3格式,但播放器不支持该格式音频就会出现杂音的状况,建议更换一下播放软件重试。同时也有用户出现音频只有尾部出现杂音的情况,可以用BeyondCompare查看音频流,是否有日志写入音。

使用语音合成iOS SDK,连续点击播放按钮,高频率触发播放出现页面终止情况,该如何解决?

由于在线合成是需要连接网络,网络状况会直接影响接口响应时间,如果您的业务需要快速停止任务并开始下一条,可以根据业务需求调整网络超时时间。

使用语音合成iOS SDK,如何保存为文件,保存格式是什么?

可以在onNuiTtsUserdataCallback接口参数中将合成的数据保存成文件,合成的格式以传出参数为主,例如[nls_config setObject:@"mp3" forKey:@"encode_type"]

目前支持格式为PCM、WAV、mp3,需要注意是,语音合成的文档案例中播放器不支持mp3格式音频,直接使用可能产生噪音,但存储的mp3格式文件可以用支持mp3格式的播放软件试听。如果个别音频文件出现少字的现象,可能是因为该发音人合成速度过快(如xiaoyun),部分数据没有写入文件被清除,您可以在fwrite后调用fflush保证数据完全写入文件。code

使用语音合成iOS SDK,onNuiTtsUserdataCallback不返回时间戳信息,如何解决?

默认情况SDK不返回时间戳,如果您需要获取时间戳信息,可以通过接口setparamTts设置enable_subtitle,详情请参见接口说明

是否有Android和iOS的SDK,能否用在专有云下?

有SDK,在专有云安装包里默认不提供,可以通过阿里云帮助中心对应的服务文档中下载,如实时语音识别的Android SDKiOS SDK。移动端SDK可以调用公共云ASR、TTS服务,也可以用在专有云环境下。

是否支持后台处理?

SDK本身不限制前后台,iOS SDK的样例工程默认仅支持前台处理,如果您需要支持后台处理,可以做如下修改:

  1. 在工程Info.list中添加Required background modes配置,并在该配置下添加item,Value设置为App plays audio or streams audio/video using AirPlay配置1

  2. 在录音模块中进入后台时,不停止录音。亦即NLSVoiceRecorder.m中_appResignActive接口中不做停止录音调用。配置2

下载语音交互iOS SDK至本地库,测试代码时,在模拟器可以正常运行,真机却无法运行,报错提示“Reason: no suitable image found. Did find:xxx”。

建议您删除手机上对应的APP后,执行xcode clean,并重新尝试运行。除此以外,还需检查签名的正确性,如果签名不正确,需撤销原来的inHouse证书,重新制作新的证书和provisioning profile,并将代码重新签名,再次打包。

使用智能语音服务集成iOS SDK,接入NuiSdk运行报错MIC。

建议您检查下当前录音设备是否有被占用。

使用智能语音服务集成iOS SDK,接入nuisdk.framework后,导入头文件项目失败。

一般情况下是SDK导入有问题导致,请您确认下图参数是否已勾选,如果已勾选,建议您将头文件导入方式换为#import <nuisdk/NeoNui.h>nui

使用iOS SDK接入nuisdk.framework后,报错提示“/Users/admin/FlashTranscription_iOS/Fc_ASR.xcodeproj Building for iOS, but the linked and embedded framework 'nuisdk.framework' was built for iOS + iOS Simulator”。

可能因为版本过高导致,建议您修改项目配置Validate Workspace为Yes后,重新编译。Validate Workspace

使用集成语音服务iOS SDK,flutter_plugin集成时,报错提示“Undefined symbols for architecture arm64: "std::__1::mutex::~mutex()", referenced from: ___cxx_global_var_init in libflutter_tts.a(ringBuf.o)”。

您可以打开iOS工程下的Podfile文件,修改post_install do |installer|部分的代码,再次执行构建即可成功。code

TRTC实时音视频和语音识别结合,当同时调用麦克风时可能会发生冲突,导致有一方没有声音,如何解决?

建议尝试TRTC的音视频流,然后使用localStream.getAudioTrack获取MediaStreamTrack对象,并转换为符合ASR标准的音频流,之后通过语音识别SDK发起请求。

使用集成语音服务iOS SDK,在接入nuisdk.framework后报错,需要修改Legacy Build system,才可以运行,是什么原因?

建议您修改项目配置Validate Workspace为Yes后,重新编译。

Validate Workspace

使用App集成iOS SDK,提交到App store失败,提示“Unsupported Architectures. The executable for AliYunSmart.app/Frameworks/nuisdk.framework contains unsupported architectures '[x86_ _64, i386]'. With error code”。

可能是模拟器架构影响,您可以参考如下方法查看framework版本并移除framework模拟器架构。

  1. 进入到framework目录。

  2. 输入命令lipo -info xxxFramework,查看framework的架构版本,如果含有模拟器打包需要把模拟器架构移除。

  • 本页导读 (1)
文档反馈