本文档仅适用于“中国内地(北京)”地域,且必须使用该地域的API Key。
本文介绍如何通过WebSocket连接访问CosyVoice语音合成服务。
DashScope SDK目前仅支持Java和Python。若想使用其他编程语言开发CosyVoice语音合成应用程序,可以通过WebSocket连接与服务进行通信。
用户指南:关于模型介绍和选型建议请参见实时语音合成-CosyVoice/Sambert。
WebSocket是一种支持全双工通信的网络协议。客户端和服务器通过一次握手建立持久连接,双方可以互相主动推送数据,因此在实时性和效率方面具有显著优势。
对于常用编程语言,有许多现成的WebSocket库和示例可供参考,例如:
Go:
gorilla/websocketPHP:
RatchetNode.js:
ws
建议您先了解WebSocket的基本原理和技术细节,再参照本文进行开发。
前提条件
已开通服务并获取API Key。请配置API Key到环境变量,而非硬编码在代码中,防范因代码泄露导致的安全风险。
当您需要为第三方应用或用户提供临时访问权限,或者希望严格控制敏感数据访问、删除等高风险操作时,建议使用临时鉴权Token。
与长期有效的 API Key 相比,临时鉴权 Token 具备时效性短(60秒)、安全性高的特点,适用于临时调用场景,能有效降低API Key泄露的风险。
使用方式:在代码中,将原本用于鉴权的 API Key 替换为获取到的临时鉴权 Token 即可。
模型与价格
模型名称 | 单价 | 免费额度(注) |
cosyvoice-v3-plus | 2元/万字符 | 2025年11月15日0点前开通阿里云百炼:2000字符 2025年11月15日0点后开通阿里云百炼:1万字符 有效期:阿里云百炼开通后90天内 |
cosyvoice-v3-flash | 1元/万字符 | |
cosyvoice-v2 | 2元/万字符 | |
cosyvoice-v1 |
语音合成文本限制与格式规范
文本长度限制
单次通过continue-task指令发送的待合成文本长度不得超过 20000 字符,多次调用continue-task指令累计发送的文本总长度不得超过 20 万字符。
字符计算规则
汉字(包括简/繁体汉字、日文汉字和韩文汉字)按2个字符计算,其他所有字符(如标点符号、字母、数字、日韩文假名/谚文等)均按 1个字符计算
计算文本长度时,不包含SSML 标签内容
示例:
"你好"→ 2(你)+2(好)=4字符"中A文123"→ 2(中)+1(A)+2(文)+1(1)+1(2)+1(3)=8字符"中文。"→ 2(中)+2(文)+1(。)=5字符"中 文。"→ 2(中)+1(空格)+2(文)+1(。)=6字符"<speak>你好</speak>"→ 2(你)+2(好)=4字符
编码格式
需采用UTF-8编码。
数学表达式支持说明
当前数学表达式解析功能仅适用于cosyvoice-v2、cosyvoice-v3-flash和cosyvoice-v3-plus模型,支持识别中小学常见的数学表达式,包括但不限于基础运算、代数、几何等内容。
详情请参见LaTeX 公式转语音。
SSML标记语言支持说明
当前SSML(Speech Synthesis Markup Language,语音合成标记语言)功能仅适用于cosyvoice-v3-flash、cosyvoice-v3-plus和cosyvoice-v2模型的复刻音色,以及音色列表中标记为支持的系统音色,使用时需满足以下条件:
使用方式如下:
在发送run-task指令时,将参数
enable_ssml设置为true,以开启SSML支持;随后通过continue-task指令发送包含SSML的文本。
开启 SSML 支持(即将 enable_ssml 参数设为 true)后,仅允许通过一次continue-task指令提交完整的待合成文本,不支持多次发送。
交互流程
客户端发送给服务端的消息称作指令;服务端返回给客户端的消息有两种:JSON格式的事件和二进制音频流。
按时间顺序,客户端与服务端的交互流程如下:
建立连接:客户端与服务端建立WebSocket连接。
开启任务:
客户端发送run-task指令以开启任务。
客户端收到服务端返回的task-started事件,标志着任务已成功开启,可以进行后续步骤。
发送待合成文本:
客户端按顺序向服务端发送一个或多个包含待合成文本的continue-task指令,服务端接收到完整语句后返回result-generated事件和音频流(文本长度有约束, 详情参见continue-task指令中
text字段描述)。说明您可以多次发送continue-task指令,按顺序提交文本片段。服务端接收文本片段后自动进行分句:
完整语句立即合成,此时客户端能够接收到服务端返回的音频
不完整语句缓存至完整后合成,语句不完整时服务端不返回音频
当发送finish-task指令时,服务端会强制合成所有缓存内容。
通知服务端结束任务:
待文本发送完毕后,客户端发送finish-task指令通知服务端结束任务,并继续接收服务端返回的音频流(注意不要遗漏该步骤,否则可能收不到语音或收不到结尾部分的语音)。
任务结束:
客户端收到服务端返回的task-finished事件,标志着任务结束。
关闭连接:客户端关闭WebSocket连接。
URL
WebSocket URL固定如下:
wss://dashscope.aliyuncs.com/api-ws/v1/inferenceHeaders
请求头中需添加如下信息:
{
"Authorization": "bearer <your_dashscope_api_key>", // 必选 将<your_dashscope_api_key>替换成您自己的API Key
"user-agent": "your_platform_info", // 可选
"X-DashScope-WorkSpace": workspace, // 可选,阿里云百炼业务空间ID
"X-DashScope-DataInspection": "enable"
}指令(客户端→服务端)
指令是客户端发送给服务端的消息,为JSON格式,以Text Frame方式发送,用于控制任务的起止和标识任务边界。
发送指令需严格遵循以下时序,否则可能导致任务失败:
发送 run-task指令
用于启动语音合成任务。
返回的
task_id需在后续发送continue-task指令和finish-task指令时使用,必须保持一致。
用于发送待合成文本。
必须在接收到服务端返回的task-started事件后,才能发送此指令。
用于结束语音合成任务。
在所有continue-task指令发送完毕后发送此指令。
1. run-task指令:开启任务
该指令用于开启语音合成任务。可在该指令中对音色、采样率等请求参数进行设置。
发送时机:WebSocket连接建立后。
不要发送待合成文本:此处发送合成文本不利于问题排查,因此应避免在此发送文本。
示例:
{
"header": {
"action": "run-task",
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx", // 随机uuid
"streaming": "duplex"
},
"payload": {
"task_group": "audio",
"task": "tts",
"function": "SpeechSynthesizer",
"model": "cosyvoice-v3-flash",
"parameters": {
"text_type": "PlainText",
"voice": "longanyang", // 音色
"format": "mp3", // 音频格式
"sample_rate": 22050, // 采样率
"volume": 50, // 音量
"rate": 1, // 语速
"pitch": 1 // 音调
},
"input": {// input不能省去,不然会报错
}
}
}header参数说明:
参数 | 类型 | 是否必选 | 说明 |
header.action | string | 是 | 指令类型。 当前指令中,固定为"run-task"。 |
header.task_id | string | 是 | 当次任务ID。 为32位通用唯一识别码(UUID),由32个随机生成的字母和数字组成。可以带横线(如 在后续发送continue-task指令和finish-task指令时,用到的task_id需要和发送run-task指令时使用的task_id保持一致。 |
header.streaming | string | 是 | 固定字符串:"duplex" |
payload参数说明:
参数 | 类型 | 是否必选 | 说明 |
payload.task_group | string | 是 | 固定字符串:"audio"。 |
payload.task | string | 是 | 固定字符串:"tts"。 |
payload.function | string | 是 | 固定字符串:"SpeechSynthesizer"。 |
payload.model | string | 是 | 语音合成模型。 不同模型版本需要使用对应版本的音色:
|
payload.input | object | 是 |
|
payload.parameters | |||
text_type | string | 是 | 固定字符串:“PlainText”。 |
voice | string | 是 | 语音合成所使用的音色。 支持系统音色和复刻音色:
|
format | string | 否 | 音频编码格式。
音频格式为opus时,支持通过 |
sample_rate | integer | 否 | 音频采样率(单位:Hz)。 默认值:22050。 取值范围:8000, 16000, 22050, 24000, 44100, 48000。 说明 默认采样率代表当前音色的最佳采样率,缺省条件下默认按照该采样率输出,同时支持降采样或升采样。 |
volume | integer | 否 | 音量。 默认值:50。 取值范围:[0, 100]。50代表标准音量。音量大小与该值呈线性关系,0为静音,100为最大音量。 |
rate | float | 否 | 语速。 默认值:1.0。 取值范围:[0.5, 2.0]。1.0为标准语速,小于1.0则减慢,大于1.0则加快。 |
pitch | float | 否 | 音高。该值作为音高调节的乘数,但其与听感上的音高变化并非严格的线性或对数关系,建议通过测试选择合适的值。 默认值:1.0。 取值范围:[0.5, 2.0]。1.0为音色自然音高。大于1.0则音高变高,小于1.0则音高变低。 |
enable_ssml | boolean | 否 | 是否开启SSML功能。 该参数设为 |
bit_rate | int | 否 | 音频码率(单位kbps)。音频格式为opus时,支持通过 默认值:32。 取值范围:[6, 510]。
|
word_timestamp_enabled | boolean | 否 | 是否开启字级别时间戳。 默认值:false。
该功能仅适用于cosyvoice-v3-flash、cosyvoice-v3-plus和cosyvoice-v2模型的复刻音色,以及音色列表中标记为支持的系统音色。 |
seed | int | 否 | 生成时使用的随机数种子,使合成的效果产生变化。在模型版本、文本、音色及其他参数均相同的前提下,使用相同的seed可复现相同的合成结果。 默认值0。 取值范围:[0, 65535]。 cosyvoice-v1不支持该功能。 |
language_hints | array[string] | 否 | 指定语音合成的目标语言,提升合成效果。cosyvoice-v1不支持该功能。 当数字、缩写、符号等朗读方式或者小语种合成效果不符合预期时使用,例如:
取值范围:
注意:此参数为数组,但当前版本仅处理第一个元素,因此建议只传入一个值。 重要 此参数用于指定语音合成的目标语言,该设置与声音复刻时的样本音频的语种无关。如果您需要设置复刻任务的源语言,请参见CosyVoice声音复刻API。 |
instruction | string | 否 | 设置指令,用于控制方言、情感或角色等合成效果。该功能仅适用于cosyvoice-v3-flash模型的复刻音色,以及音色列表中标记为支持Instruct的系统音色。 使用要求:
支持的功能: |
enable_aigc_tag | boolean | 否 | 是否在生成的音频中添加AIGC隐性标识。设置为true时,会将隐性标识嵌入到支持格式(wav/mp3/opus)的音频中。 默认值:false。 仅cosyvoice-v3-flash、cosyvoice-v3-plus、cosyvoice-v2支持该功能。 |
aigc_propagator | string | 否 | 设置AIGC隐性标识中的 默认值:阿里云UID。 仅cosyvoice-v3-flash、cosyvoice-v3-plus、cosyvoice-v2支持该功能。 |
aigc_propagate_id | string | 否 | 设置AIGC隐性标识中的 默认值:本次语音合成请求Request ID。 仅cosyvoice-v3-flash、cosyvoice-v3-plus、cosyvoice-v2支持该功能。 |
2. continue-task指令
该指令专门用来发送待合成文本。
可以在一个continue-task指令中一次性发送待合成文本,也可以将文本分段并按顺序在多个continue-task指令中发送。
发送时机:在收到task-started事件后发送。
发送文本片段的间隔不得超过23秒,否则触发“request timeout after 23 seconds”异常。
若无待发送文本,需及时发送finish-task指令结束任务。
服务端强制设定23秒超时机制,客户端无法修改该配置。
示例:
{
"header": {
"action": "continue-task",
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx", // 随机uuid
"streaming": "duplex"
},
"payload": {
"input": {
"text": "床前明月光,疑是地上霜"
}
}
}header参数说明:
参数 | 类型 | 是否必选 | 说明 |
header.action | string | 是 | 指令类型。 当前指令中,固定为"continue-task"。 |
header.task_id | string | 是 | 当次任务ID。 需要和发送run-task指令时使用的task_id保持一致。 |
header.streaming | string | 是 | 固定字符串:"duplex" |
payload参数说明:
参数 | 类型 | 是否必选 | 说明 |
input.text | string | 是 | 待合成文本。 |
3. finish-task指令:结束任务
该指令用于结束语音合成任务。
请务必确保发送该指令,否则可能会出现合成语音缺失的问题。
该指令发送后,服务端会将剩余的文本转成语音,语音合成完成后,服务端向客户端返回task-finished事件。
发送时机:在continue-task指令发送完成后发送。
示例:
{
"header": {
"action": "finish-task",
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx",
"streaming": "duplex"
},
"payload": {
"input": {}//input不能省去,否则会报错
}
}header参数说明:
参数 | 类型 | 是否必选 | 说明 |
header.action | string | 是 | 指令类型。 当前指令中,固定为"finish-task"。 |
header.task_id | string | 是 | 当次任务ID。 需要和发送run-task指令时使用的task_id保持一致。 |
header.streaming | string | 是 | 固定字符串:"duplex" |
payload参数说明:
参数 | 类型 | 是否必选 | 说明 |
payload.input | object | 是 | 固定格式:{}。 |
事件(服务端→客户端)
事件是服务端返回给客户端的消息,为JSON格式,代表不同的处理阶段。
服务端返回给客户端的二进制音频不包含在任何事件中,需单独接收。
1. task-started事件:任务已开启
当监听到服务端返回的task-started事件时,标志着任务已成功开启。只有在接收到该事件后,才能向服务端发送continue-task指令或finish-task指令;否则,任务将执行失败。
task-started事件的payload没有内容。
示例:
{
"header": {
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx",
"event": "task-started",
"attributes": {}
},
"payload": {}
}header参数说明:
参数 | 类型 | 说明 |
header.event | string | 事件类型。 当前事件中,固定为"task-started"。 |
header.task_id | string | 客户端生成的task_id |
2. result-generated事件
客户端发送continue-task指令和finish-task指令的同时,服务端持续返回result-generated事件。
为了让用户能够将音频数据与对应的文本内容关联,服务端在返回音频数据的同时,通过result-generated事件返回句子的元信息。服务端会对用户输入的文本进行自动分句,每个句子的合成过程包含以下3个子事件:
sentence-begin:标识句子开始,返回待合成的句子文本内容sentence-synthesis:标识音频数据块,每个此事件后立即通过WebSocket binary通道传输一个音频数据帧一个句子的合成过程中会产生多个
sentence-synthesis事件,每个对应一个音频数据块客户端需要按顺序接收这些音频数据块并以追加模式写入同一文件
sentence-synthesis事件与其后的音频数据帧是一一对应的关系,不会出现错位
sentence-end:标识句子结束,返回句子文本内容和累计的计费字符数
通过payload.output.type字段区分子事件类型。
示例:
sentence-begin
{
"header": {
"task_id": "3f2d5c86-0550-45c0-801f-xxxxxxxxxx",
"event": "result-generated",
"attributes": {}
},
"payload": {
"output": {
"sentence": {
"index": 0,
"words": []
},
"type": "sentence-begin",
"original_text": "床前明月光,"
}
}
}sentence-synthesis
{
"header": {
"task_id": "3f2d5c86-0550-45c0-801f-xxxxxxxxxx",
"event": "result-generated",
"attributes": {}
},
"payload": {
"output": {
"sentence": {
"index": 0,
"words": []
},
"type": "sentence-synthesis"
}
}
}sentence-end
{
"header": {
"task_id": "3f2d5c86-0550-45c0-801f-xxxxxxxxxx",
"event": "result-generated",
"attributes": {}
},
"payload": {
"output": {
"sentence": {
"index": 0,
"words": []
},
"type": "sentence-end",
"original_text": "床前明月光,"
},
"usage": {
"characters": 11
}
}
}header参数说明:
参数 | 类型 | 说明 |
header.event | string | 事件类型。 当前事件中,固定为"result-generated"。 |
header.task_id | string | 客户端生成的task_id。 |
header.attributes | object | 附加属性,通常为空对象。 |
payload参数说明:
参数 | 类型 | 说明 |
payload.output.type | string | 子事件类型。 取值范围:
完整的事件流程 对于每个待合成的句子,服务端按以下顺序返回事件:
|
payload.output.sentence.index | integer | 句子的编号,从0开始。 |
payload.output.sentence.words | array | 字级别信息数组,通常为空数组。 |
payload.output.original_text | string | 对用户输入文本进行分句后的句内容。最后一个句子可能没有此字段。 |
payload.usage.characters | integer | 截止当前,本次请求中计费的有效字符数。
在一次任务中, |
3. task-finished事件:任务已结束
当监听到服务端返回的task-finished事件时,说明任务已结束。
结束任务后可以关闭WebSocket连接结束程序,也可以复用WebSocket连接,重新发送run-task指令开启下一个任务(参见关于建连开销和连接复用)。
示例:
{
"header": {
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx",
"event": "task-finished",
"attributes": {
"request_uuid": "0a9dba9e-d3a6-45a4-be6d-xxxxxxxxxxxx"
}
},
"payload": {
"output": {
"sentence": {
"words": []
}
},
"usage": {
"characters": 13
}
}
}header参数说明:
参数 | 类型 | 说明 |
header.event | string | 事件类型。 当前事件中,固定为"task-finished"。 |
header.task_id | string | 客户端生成的task_id。 |
header.attributes.request_uuid | string | Request ID,可提供给CosyVoice开发人员定位问题。 |
payload参数说明:
参数 | 类型 | 说明 |
payload.usage.characters | integer | 截止当前,本次请求中计费的有效字符数。
在一次任务中, |
payload.output.sentence.index | integer | 句子的编号,从0开始。 本字段和以下字段需要通过word_timestamp_enabled开启字级别时间戳 |
payload.output.sentence.words[k] | ||
text | string | 字的文本。 |
begin_index | integer | 字在句子中的开始位置索引,从 0 开始。 |
end_index | integer | 字在句子中的结束位置索引,从 1 开始。 |
begin_time | integer | 字对应音频的开始时间戳,单位为毫秒。 |
end_time | integer | 字对应音频的结束时间戳,单位为毫秒。 |
通过word_timestamp_enabled开启字级别时间戳后会返回时间戳信息,示例如下:
4. task-failed事件:任务失败
如果接收到task-failed事件,表示任务失败。此时需要关闭WebSocket连接并处理错误。通过分析报错信息,如果是由于编程问题导致的任务失败,您可以调整代码进行修正。
示例:
{
"header": {
"task_id": "2bf83b9a-baeb-4fda-8d9a-xxxxxxxxxxxx",
"event": "task-failed",
"error_code": "InvalidParameter",
"error_message": "[tts:]Engine return error code: 418",
"attributes": {}
},
"payload": {}
}header参数说明:
参数 | 类型 | 说明 |
header.event | string | 事件类型。 当前事件中,固定为"task-failed"。 |
header.task_id | string | 客户端生成的task_id。 |
header.error_code | string | 报错类型描述。 |
header.error_message | string | 具体报错原因。 |
关于建连开销和连接复用
WebSocket服务支持连接复用以提升资源的利用效率,避免建立连接开销。
服务端收到客户端发送的 run-task指令后,将启动一个新的任务,客户端发送finish-task指令后,服务端在任务完成时返回task-finished事件以结束该任务。结束任务后WebSocket连接可以被复用,客户端重新发送run-task指令即可开启下一个任务。
在复用连接中的不同任务需要使用不同 task_id。
如果在任务执行过程中发生失败,服务将依然返回task-failed事件,并关闭该连接。此时这个连接无法继续复用。
如果在任务结束后60秒没有新的任务,连接会超时自动断开。
示例代码
示例代码仅提供最基础的服务调通实现,实际业务场景的相关代码需您自行开发。
在编写WebSocket客户端代码时,为了同时发送和接收消息,通常采用异步编程。您可以按照以下步骤来编写程序:
错误码
如遇报错问题,请参见错误信息进行排查。
常见问题
功能特性/计量计费/限流
Q:当遇到发音不准的情况时,有什么解决方案可以尝试?
通过SSML可以对语音合成效果进行个性化定制。
Q:为什么使用WebSocket协议而非HTTP/HTTPS协议?为什么不提供RESTful API?
语音服务选择 WebSocket 而非 HTTP/HTTPS/RESTful,根本在于其依赖全双工通信能力——WebSocket 允许服务端与客户端主动双向传输数据(如实时推送语音合成/识别进度),而基于 HTTP 的 RESTful 仅支持客户端发起的单向请求-响应模式,无法满足实时交互需求。
Q:语音合成是按文本字符数计费的,要如何查看或获取每次合成的文本长度?
通过服务端返回的result-generated事件中payload.usage.characters参数获取字符数,请以收到的最后一个result-generated事件为准。
故障排查
Q:如何获取Request ID?
通过以下两种方式可以获取:
解析result-generated事件中服务端返回的信息。
解析task-finished事件中服务端返回的信息。
Q:使用SSML功能失败是什么原因?
请按以下步骤排查:
确保限制与约束正确
确保用正确的方式进行调用,详情请参见SSML标记语言支持说明
确保待合成文本为纯文本格式且符合格式要求,详情请参见SSML标记语言介绍
Q:为什么音频无法播放?
请根据以下场景逐一排查:
音频保存为完整文件(如xx.mp3)的情况
音频格式一致性:确保请求参数中设置的音频格式与文件后缀一致。例如,如果请求参数设置的音频格式为wav,但文件后缀为mp3,可能会导致播放失败。
播放器兼容性:确认使用的播放器是否支持该音频文件的格式和采样率。例如,某些播放器可能不支持高采样率或特定编码的音频文件。
流式播放音频的情况
将音频流保存为完整文件,尝试使用播放器播放。如果文件无法播放,请参考场景 1 的排查方法。
如果文件可以正常播放,则问题可能出在流式播放的实现上。请确认使用的播放器是否支持流式播放。
常见的支持流式播放的工具和库包括:ffmpeg、pyaudio (Python)、AudioFormat (Java)、MediaSource (Javascript)等。
Q:为什么音频播放卡顿?
请根据以下场景逐一排查:
检查文本发送速度: 确保发送文本的间隔合理,避免前一句音频播放完毕后,下一句文本未能及时发送。
检查回调函数性能:
检查回调函数中是否存在过多业务逻辑,导致阻塞。
回调函数运行在 WebSocket 线程中,若被阻塞,可能会影响 WebSocket 接收网络数据包,进而导致音频接收卡顿。
建议将音频数据写入一个独立的音频缓冲区(audio buffer),然后在其他线程中读取并处理,避免阻塞 WebSocket 线程。
检查网络稳定性: 确保网络连接稳定,避免因网络波动导致音频传输中断或延迟。
Q:语音合成慢(合成时间长)是什么原因?
请按以下步骤排查:
检查输入间隔
如果是流式语音合成,请确认文字发送间隔是否过长(如上段发出后延迟数秒才发送下段),过久间隔会导致合成总时长增加。
分析性能指标
首包延迟:正常500ms左右。
RTF(RTF = 合成总耗时/音频时长):正常小于1.0。
Q:合成的语音发音错误如何处理?
请使用SSML的<phoneme>标签指定正确的发音。
Q:为什么没有返回语音?为什么结尾部分的文本没能成功转换成语音?(合成语音缺失)
请确认是否忘记发送finish-task指令。在语音合成过程中,服务端会在缓存足够文本后才开始合成。如果忘记发送finish-task指令,可能会导致缓存中的结尾部分文本未能被合成为语音。
Q:为什么返回的音频流顺序错乱?导致播放内容混乱
请从以下两个方面排查:
确保同一个合成任务的 run-task指令、continue-task指令和finish-task指令使用相同的
task_id。检查异步操作是否导致音频文件写入顺序与接收二进制数据的顺序不一致。
权限与认证
Q:我希望我的 API Key 仅用于 CosyVoice 语音合成服务,而不被百炼其他模型使用(权限隔离),我该如何做?
可以通过新建业务空间并只授权特定模型来限制API Key的使用范围。详情请参见业务空间管理。
Q:使用子业务空间的API Key是否可以调用CosyVoice模型?
对于默认业务空间,模型均可调用。
对于子业务空间:需要为API Key对应的子业务空间进行模型授权,详情请参见子业务空间的模型调用。
更多问题
请参见GitHub QA。