本文介绍Paraformer实时语音识别Python API的使用。
前提条件
已开通服务并获取API Key。请配置API Key到环境变量,而非硬编码在代码中,防范因代码泄露导致的安全风险。
模型列表
模型名 | 模型简介 |
paraformer-realtime-v2 | 推荐使用。Paraformer最新多语种实时语音识别模型。
|
paraformer-realtime-8k-v2 | 推荐使用。Paraformer最新8k中文实时语音识别模型,模型结构升级,具有更快的推理速度和更好的识别效果。
|
paraformer-realtime-v1 | Paraformer中文实时语音识别模型。
|
paraformer-realtime-8k-v1 | Paraformer中文实时语音识别模型。
|
快速开始
Recognition类提供了同步调用和流式调用等接口。请根据实际需求选择合适的调用方式:
同步调用:针对本地文件进行识别,并一次性返回完整的处理结果。适合处理录制好的音频。
流式调用:可直接对音频流进行识别,并实时输出结果。音频流可以来自外部设备(如麦克风)或从本地文件读取。适合需要即时反馈的场景。
同步调用
提交单个语音实时转写任务,通过传入本地文件的方式同步阻塞地拿到转写结果。
实例化Recognition类绑定请求参数,调用call
进行识别/翻译并最终获取识别结果(RecognitionResult)。
流式调用
提交单个语音实时转写任务,通过实现回调接口的方式流式输出实时识别结果。
启动流式语音识别
实例化Recognition类绑定请求参数和回调接口(RecognitionCallback),调用
start
方法启动流式语音识别。流式传输
循环调用Recognition类的
send_audio_frame
方法,将从本地文件或设备(如麦克风)读取的二进制音频流分段发送至服务端。在发送音频数据的过程中,服务端会通过回调接口(RecognitionCallback)的
on_event
方法,将识别结果实时返回给客户端。建议每次发送的音频时长约为100毫秒,数据大小保持在1KB至16KB之间。
结束处理
调用Recognition类的
stop
方法结束语音识别。该方法会阻塞当前线程,直到回调接口(RecognitionCallback)的
on_complete
或者on_error
回调触发后才会释放线程阻塞。
并发调用
在Python中,由于存在全局解释器锁,同一时刻只有一个线程可以执行Python代码(虽然某些性能导向的库可能会去除此限制)。如果您想更好地利用多核心计算机的计算资源,推荐您使用multiprocessing或concurrent.futures.ProcessPoolExecutor。 多线程在较高并发下会显著增加SDK调用延迟。
请求参数
请求参数通过Recognition类的构造方法(_init_)进行设置。
参数 | 类型 | 默认值 | 是否必须 | 说明 |
model | str | - | 是 | 用于实时语音识别的模型(参见模型列表)。 |
sample_rate | int | - | 是 | 设置待识别音频采样率(单位Hz)。 因模型而异:
|
format | str | - | 是 | 设置待识别音频格式。 支持的音频格式:pcm、wav、mp3、opus、speex、aac、amr。 重要 对于opus和speex格式的音频,需要ogg封装;对于wav格式的音频,需要pcm编码。 |
vocabulary_id | str | - | 否 | 设置热词ID,若未设置则不生效。v2及更高版本模型设置热词ID时使用该字段。 在本次语音识别中,将应用与该热词ID对应的热词信息。具体使用方法请参见定制热词。 |
phrase_id | str | - | 否 | 设置热词ID,若未设置则不生效。v1系列模型设置热词ID时使用该字段。 在本次语音识别中,将应用与该热词ID对应的热词信息。具体使用方法请参见Paraformer语音识别热词定制与管理。 |
disfluency_removal_enabled | bool | False | 否 | 设置是否过滤语气词:
|
language_hints | list[str] | ["zh", "en"] | 否 | 设置待识别语言代码。如果无法提前确定语种,可不设置,模型会自动识别语种。 目前支持的语言代码:
该参数仅对支持多语言的模型生效(参见模型列表)。 |
semantic_punctuation_enabled | bool | False | 否 | 设置是否开启语义断句,默认关闭。
语义断句准确性更高,适合会议转写场景;VAD(Voice Activity Detection,语音活动检测)断句延迟较低,适合交互场景。 通过调整 该参数仅在模型为v2及更高版本时生效。 |
max_sentence_silence | int | 800 | 否 | 设置VAD(Voice Activity Detection,语音活动检测)断句的静音时长阈值(单位为ms)。 当一段语音后的静音时长超过该阈值时,系统会判定该句子已结束。 参数范围为200ms至6000ms,默认值为800ms。 该参数仅在 |
punctuation_prediction_enabled | bool | True | 否 | 设置是否在识别结果中自动添加标点:
该参数仅在模型为v2及更高版本时生效。 |
heartbeat | bool | False | 否 | 当需要与服务端保持长连接时,可通过该开关进行控制:
该参数仅在模型为v2及更高版本时生效。 使用该字段时,SDK版本不能低于1.23.1。 |
inverse_text_normalization_enabled | bool | True | 否 | 设置是否开启ITN(Inverse Text Normalization,逆文本正则化)。 默认开启(true)。开启后,中文数字将转换为阿拉伯数字。 该参数仅在模型为v2及更高版本时生效。 |
callback | RecognitionCallback | - | 否 |
关键接口
Recognition
类
Recognition
通过“from dashscope.audio.asr import *
”方式引入。
成员方法 | 方法签名 | 说明 |
call |
| 基于本地文件的同步调用,该方法会阻塞当前线程直到全部音频读完,该方法要求所识别文件具有可读权限。 识别结果以 |
start |
| 开始语音识别。 基于回调形式的流式实时识别,该方法不会阻塞当前线程。需要配合 |
send_audio_frame |
| 推送音频。每次推送的音频流不宜过大或过小,建议每包音频时长为100ms左右,大小在1KB~16KB之间。 识别结果通过回调接口(RecognitionCallback)的on_event方法获取。 |
stop |
| 停止语音识别,阻塞到服务将收到的音频都识别后结束任务。 |
get_last_request_id |
| 获取request_id,在构造函数调用(创建对象)后可以使用。 |
get_first_package_delay |
| 获取首包延迟,从发送第一包音频到收到首包识别结果延迟,在任务完成后使用。 |
get_last_package_delay |
| 获得尾包延迟,发送 |
get_response |
| 获取最后一次报文,可以用于获取task-failed报错。 |
回调接口(RecognitionCallback
)
流式调用时,服务端会通过回调的方式,将关键流程信息和数据返回给客户端。您需要实现回调方法,处理服务端返回的信息或者数据。
方法 | 参数 | 返回值 | 描述 |
| 无 | 无 | 当和服务端建立连接完成后,该方法立刻被回调。 |
|
| 无 | 当服务有回复时会被回调。 |
| 无 | 无 | 当所有识别结果全部返回后进行回调。 |
|
| 无 | 发生异常时该方法被回调。 |
| 无 | 无 | 当服务已经关闭连接后进行回调。 |
响应结果
识别结果(RecognitionResult
)
RecognitionResult
代表流式调用中一次实时识别或同步调用的识别结果。
成员方法 | 方法签名 | 说明 |
get_sentence |
| 获取当前识别的句子及时间戳信息。回调中返回的是单句信息,所以此方法返回类型为Dict[str, Any]。 详情请参见单句信息(Sentence)。 |
get_request_id |
| 获取请求的request_id。 |
is_sentence_end |
| 判断给定句子是否已经结束。 |
单句信息(Sentence
)
Sentence类成员如下:
参数 | 类型 | 说明 |
begin_time | int | 句子开始时间,单位为ms。 |
end_time | int | 句子结束时间,单位为ms。 |
text | str | 识别文本。 |
words | 字时间戳信息(Word)的list集合 | 字时间戳信息。 |
emo_tag | str | 当前句子的情感:
仅在关闭语义断句( 仅paraformer-realtime-8k-v2模型支持情感识别。 |
emo_confidence | float | 当前句子识别情感的置信度,取值范围:[0.0,1.0]。值越大表示置信度越高。 仅paraformer-realtime-8k-v2模型支持情感识别。 |
字时间戳信息(Word
)
Word类成员如下:
参数 | 类型 | 说明 |
begin_time | int | 字开始时间,单位为ms。 |
end_time | int | 字结束时间,单位为ms。 |
text | str | 字。 |
punctuation | str | 标点。 |
错误码
在使用API过程中,如果调用失败并返回错误信息,请参见错误信息进行解决。
更多示例
更多示例,请参见GitHub。
常见问题
功能特性
Q:在长时间静默的情况下,如何保持与服务端长连接?
将请求参数heartbeat
设置为true,并持续向服务端发送静音音频。
Q:如何识别本地文件(录音文件)?
识别本地文件有两种方式:
直接传入本地文件路径:此种方式在最终识别结束后获取完整识别结果,不适合即时反馈的场景。
参见同步调用,在Recognition类的
call
方法中传入文件路径对录音文件直接进行识别。将本地文件转成二进制流进行识别:此种方式一边识别文件一边流式获取识别结果,适合即时反馈的场景。
参见流式调用,通过Recognition类的
send_audio_frame
方法向服务端发送二进制流对其进行识别。