本文介绍如何使用智能语音交互流式文本语音合成的Java SDK,包括SDK的安装方法及SDK代码示例等。
前提条件
在使用SDK之前,请先阅读接口说明。
下载安装
从Maven服务器下载最新版本的SDKnls-sdk-java-demo+flowingtts+3.zip。
<dependency> <groupId>com.alibaba.nls</groupId> <artifactId>nls-sdk-tts</artifactId> <version>2.2.14</version> </dependency> <dependency> <groupId>com.alibaba.nls</groupId> <artifactId>nls-sdk-common</artifactId> <version>2.2.14</version> </dependency>
重要Java SDK 从 2.1.7 版本开始(含2.1.7),语音合成SDK(包括实时长文本语音合成)SpeechSynthesizer 的 waitForComplete 接口的超时时间单位从 秒 变更为 毫秒 。
解压该ZIP文件。
在pom.xml文件所在的目录运行
mvn package
,会在target目录生成可执行JAR:nls-example-tts-2.0.0-jar-with-dependencies.jar。将JAR包拷贝到您应用所在的服务器,用于快速验证及压测服务。
服务验证。运行如下代码,并按提示提供相应参数。运行后在命令执行目录生成logs/nls.log,并且将合成的音频保存在flowingTts.wav。
java -cp nls-example-flowing-tts-2.0.0-jar-with-dependencies.jar com.alibaba.nls.client.FlowingSpeechSynthesizerDemo <your-api-key> <your-token>
关键接口
NlsClient:语音处理客户端,利用该客户端可以进行一句话识别、实时语音识别和语音合成的语音处理任务。该客户端为线程安全,建议全局仅创建一个实例。
FlowingSpeechSynthesizer:流式文本语音合成实时语音合成处理类,通过该接口请求参数,发送请求,非线程安全。
FlowingSpeechSynthesizerListener:流式文本语音合成实时语音合成监听类,监听返回结果。非线程安全。需要实现如下抽象方法:
/** * 服务端检测到了一句话的开始 * @param response */ abstract public void onSentenceBegin(FlowingSpeechSynthesizerResponse response) ; /** * 接收到语音合成音频数据流 * @param message 二进制音频数据 */ abstract public void onAudioData(ByteBuffer message); /** * 服务端检测到了一句话的结束,并返回这句话的起止位置与所有时间戳 * @param response */ abstract public void onSentenceEnd(FlowingSpeechSynthesizerResponse response) ; /** * 合成结束 * @param response */ abstract public void onSynthesisComplete(FlowingSpeechSynthesizerResponse response) ; /** * 失败处理 * @param response */ abstract public void onFail(FlowingSpeechSynthesizerResponse response) ; /** * 增量在response=>payload中返回时间戳 * @param response */ abstract public void onSentenceSynthesis(FlowingSpeechSynthesizerResponse response) ;
SDK调用注意事项:
NlsClient使用Netty框架,NlsClient对象的创建会消耗一定时间和资源,一经创建可以重复使用。建议调用程序将NlsClient的创建和关闭与程序本身的生命周期相结合。
SpeechSynthesizer对象不可重复使用,一个语音合成任务对应一个SpeechSynthesizer对象。例如,大模型和用户的N次对话要进行N次语音合成任务,创建N个SpeechSynthesizer对象。
SpeechSynthesizerListener对象和SpeechSynthesizer对象是一一对应的,不能将一个SpeechSynthesizerListener对象设置到多个SpeechSynthesizer对象中,否则无法区分各语音合成任务。
Java SDK依赖Netty网络库,如果您的应用依赖Netty,其版本需更新至4.1.17.Final及以上。
代码示例
package com.alibaba.nls.client;
import com.alibaba.nls.client.protocol.NlsClient;
import com.alibaba.nls.client.protocol.OutputFormatEnum;
import com.alibaba.nls.client.protocol.SampleRateEnum;
import com.alibaba.nls.client.protocol.tts.FlowingSpeechSynthesizer;
import com.alibaba.nls.client.protocol.tts.FlowingSpeechSynthesizerListener;
import com.alibaba.nls.client.protocol.tts.FlowingSpeechSynthesizerResponse;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.nio.ByteBuffer;
/**
* 此示例演示了:
* 流式文本语音合成API调用。
*/
public class FlowingSpeechSynthesizerDemo {
private static final Logger logger = LoggerFactory.getLogger(FlowingSpeechSynthesizerDemo.class);
private static long startTime;
private String appKey;
NlsClient client;
public FlowingSpeechSynthesizerDemo(String appKey, String token, String url) {
this.appKey = appKey;
//创建NlsClient实例应用全局创建一个即可。生命周期可和整个应用保持一致,默认服务地址为阿里云线上服务地址。
if(url.isEmpty()) {
client = new NlsClient(token);
} else {
client = new NlsClient(url, token);
}
}
private static FlowingSpeechSynthesizerListener getSynthesizerListener() {
FlowingSpeechSynthesizerListener listener = null;
try {
listener = new FlowingSpeechSynthesizerListener() {
File f=new File("flowingTts.wav");
FileOutputStream fout = new FileOutputStream(f);
private boolean firstRecvBinary = true;
//流式文本语音合成开始
public void onSynthesisStart(FlowingSpeechSynthesizerResponse response) {
System.out.println("name: " + response.getName() +
", status: " + response.getStatus());
}
//服务端检测到了一句话的开始
public void onSentenceBegin(FlowingSpeechSynthesizerResponse response) {
System.out.println("name: " + response.getName() +
", status: " + response.getStatus());
System.out.println("Sentence Begin");
}
//服务端检测到了一句话的结束,获得这句话的起止位置和所有时间戳
public void onSentenceEnd(FlowingSpeechSynthesizerResponse response) {
System.out.println("name: " + response.getName() +
", status: " + response.getStatus() + ", subtitles: " + response.getObject("subtitles"));
}
//流式文本语音合成结束
@Override
public void onSynthesisComplete(FlowingSpeechSynthesizerResponse response) {
// 调用onSynthesisComplete时,表示所有TTS数据已经接收完成,所有文本都已经合成音频并返回。
System.out.println("name: " + response.getName() + ", status: " + response.getStatus()+", output file :"+f.getAbsolutePath());
}
//收到语音合成的语音二进制数据
@Override
public void onAudioData(ByteBuffer message) {
try {
if(firstRecvBinary) {
// 此处计算首包语音流的延迟,收到第一包语音流时,即可以进行语音播放,以提升响应速度(特别是实时交互场景下)。
firstRecvBinary = false;
long now = System.currentTimeMillis();
logger.info("tts first latency : " + (now - FlowingSpeechSynthesizerDemo.startTime) + " ms");
}
byte[] bytesArray = new byte[message.remaining()];
message.get(bytesArray, 0, bytesArray.length);
System.out.println("write array:" + bytesArray.length);
fout.write(bytesArray);
} catch (IOException e) {
e.printStackTrace();
}
}
//收到语音合成的增量音频时间戳
@Override
public void onSentenceSynthesis(FlowingSpeechSynthesizerResponse response) {
System.out.println("name: " + response.getName() +
", status: " + response.getStatus() + ", subtitles: " + response.getObject("subtitles"));
}
@Override
public void onFail(FlowingSpeechSynthesizerResponse response){
// task_id是调用方和服务端通信的唯一标识,当遇到问题时,需要提供此task_id以便排查。
System.out.println(
"session_id: " + getFlowingSpeechSynthesizer().getCurrentSessionId() +
", task_id: " + response.getTaskId() +
//状态码
", status: " + response.getStatus() +
//错误信息
", status_text: " + response.getStatusText());
}
};
} catch (Exception e) {
e.printStackTrace();
}
return listener;
}
public void process(String[] textArray) {
FlowingSpeechSynthesizer synthesizer = null;
try {
//创建实例,建立连接。
synthesizer = new FlowingSpeechSynthesizer(client, getSynthesizerListener());
synthesizer.setAppKey(appKey);
//设置返回音频的编码格式。
synthesizer.setFormat(OutputFormatEnum.WAV);
//设置返回音频的采样率。
synthesizer.setSampleRate(SampleRateEnum.SAMPLE_RATE_16K);
//发音人。
synthesizer.setVoice("siyue");
//音量,范围是0~100,可选,默认50。
synthesizer.setVolume(50);
//语调,范围是-500~500,可选,默认是0。
synthesizer.setPitchRate(0);
//语速,范围是-500~500,默认是0。
synthesizer.setSpeechRate(0);
//此方法将以上参数设置序列化为JSON发送给服务端,并等待服务端确认。
long start = System.currentTimeMillis();
synthesizer.start();
logger.info("tts start latency " + (System.currentTimeMillis() - start) + " ms");
FlowingSpeechSynthesizerDemo.startTime = System.currentTimeMillis();
//设置连续两次发送文本的最小时间间隔(毫秒),如果当前调用send时距离上次调用时间小于此值,则会阻塞并等待直到满足条件再发送文本
synthesizer.setMinSendIntervalMS(100);
for(String text :textArray) {
//发送流式文本数据。
synthesizer.send(text);
}
//通知服务端流式文本数据发送完毕,阻塞等待服务端处理完成。
synthesizer.stop();
} catch (Exception e) {
e.printStackTrace();
} finally {
//关闭连接
if (null != synthesizer) {
synthesizer.close();
}
}
}
public void shutdown() {
client.shutdown();
}
public static void main(String[] args) throws Exception {
String appKey = "your-api-key";
String token = "your-token";
// url取默认值
String url = "wss://nls-gateway-cn-beijing.aliyuncs.com/ws/v1";
if (args.length == 2) {
appKey = args[0];
token = args[1];
} else if (args.length == 3) {
appKey = args[0];
token = args[1];
url = args[2];
} else {
System.err.println("run error, need params(url is optional): " + "<app-key> <token> [url]");
System.exit(-1);
}
String[] textArray = {"百草堂与三", "味书屋 鲁迅 \n我家的后面有一个很", "大的园,相传叫作百草园。现在是早已并屋子一起卖", "给朱文公的子孙了,连那最末次的相见也已经",
"隔了七八年,其中似乎确凿只有一些野草;但那时却是我的乐园。\n不必说碧绿的菜畦,光滑的石井栏,高大的皂荚树,紫红的桑葚;也不必说鸣蝉在树叶里长吟,肥胖的黄蜂伏在菜花",
"上,轻捷的叫天子(云雀)忽然从草间直窜向云霄里去了。\n单是周围的短短的泥墙根一带,就有无限趣味。油蛉在这里低唱,蟋蟀们在这里弹琴。翻开断砖来,有时会遇见蜈蚣;还有斑",
"蝥,倘若用手指按住它的脊梁,便会啪的一声,\n从后窍喷出一阵烟雾。何首乌藤和木莲藤缠络着,木莲有莲房一般的果实,何首乌有臃肿的根。有人说,何首乌根是有像人形的,吃了",
"便可以成仙,我于是常常拔它起来,牵连不断地拔起来,\n也曾因此弄坏了泥墙,却从来没有见过有一块根像人样! 如果不怕刺,还可以摘到覆盆子,像小珊瑚珠攒成的小球,又酸又甜,",
"色味都比桑葚要好得远......"};
FlowingSpeechSynthesizerDemo demo = new FlowingSpeechSynthesizerDemo(appKey, token, url);
demo.process(textArray);
demo.shutdown();
}
}
常见问题
服务端返回“idle timeout”错误,应如何解决?
该报错是由于服务端在超过10s没有收到客户端消息,从而导致断连,返回idle timeout
报错。
可以通过调用FlowingSpeechSynthesizer.getConnection().sendPing()
定期向服务端发送ping包为连接保活。