本文介绍Paraformer实时语音识别Python API的使用。
前提条件
已开通服务并获取API Key。请配置API Key到环境变量,而非硬编码在代码中,防范因代码泄露导致的安全风险。
模型列表
模型名 | 模型简介 |
paraformer-realtime-v2 | 推荐使用。Paraformer最新多语种实时语音识别模型。
|
paraformer-realtime-8k-v2 | 推荐使用。Paraformer最新8k中文实时语音识别模型,模型结构升级,具有更快的推理速度和更好的识别效果。
|
paraformer-realtime-v1 | Paraformer中文实时语音识别模型。
|
paraformer-realtime-8k-v1 | Paraformer中文实时语音识别模型。
|
调用模式
核心类(Recognition)提供了同步调用和流式调用等接口。请根据实际需求选择合适的调用模式:
同步调用:对本地文件进行识别,并一次性输出完整结果。
流式调用:直接对音频流(无论是从外部设备如麦克风获取的音频流,还是从本地文件读取的音频流)进行识别,并流式输出结果。
同步调用
提交单个语音实时转写任务,通过传入本地文件的方式同步阻塞地拿到转写结果。
实例化核心类(Recognition)并设置请求参数。
recognition = Recognition(model='paraformer-realtime-v2', format='wav', sample_rate=16000, # “language_hints”只支持paraformer-realtime-v2模型 language_hints=['zh', 'en'], callback=None)
同步调用
调用核心类(Recognition)的
call
方法进行识别。call
方法返回实时识别结果(RecognitionResult)。result = recognition.call('asr_example.wav')
流式调用
提交单个语音实时转写任务,通过实现回调接口的方式流式输出实时识别结果。
实例化核心类(Recognition)设置请求参数。
recognition = Recognition(model='paraformer-realtime-v2', format='wav', sample_rate=16000, # “language_hints”只支持paraformer-realtime-v2模型 language_hints=['zh', 'en'], callback=callback)
调用核心类(Recognition)的
start
方法开启任务。分段发送二进制音频
您需要调用核心类(Recognition)实例的
send_audio_frame
方法,将从本地文件或设备(如麦克风)读取的二进制音频流分段发送给服务端。每次发送的音频时长建议为100ms左右,数据大小建议在1KB到16KB之间。在发送音频数据的同时,服务端会回调RecognitionCallback
实例的方法将识别结果返回给客户端。try: audio_data: bytes = None f = open("asr_example.wav", 'rb') if os.path.getsize("asr_example.wav"): while True: audio_data = f.read(12800) if not audio_data: break else: recognition.send_audio_frame(audio_data) else: raise Exception( 'The supplied file was empty (zero bytes long)') f.close() except Exception as e: raise e
结束任务:调用核心类(Recognition)的
stop
方法请不要遗漏该步骤。
stop
方法会阻塞当前线程,直到RecognitionCallback
的on_complete
或者on_error
方法被回调才会解除对当前线程的阻塞。recognition.stop();
并发调用
在Python中,由于存在全局解释器锁,同一时刻只有一个线程可以执行Python代码(虽然某些性能导向的库可能会去除此限制)。如果您想更好地利用多核心计算机的计算资源,推荐您使用multiprocessing或concurrent.futures.ProcessPoolExecutor。 多线程在较高并发下会显著增加SDK调用延迟。
请求参数
请求参数通过核心类(Recognition)的构造方法(_init_)进行设置。
参数 | 类型 | 默认值 | 是否必须 | 说明 |
model | str | - | 是 | 用于实时语音识别的模型。 |
sample_rate | int | - | 是 | 待识别音频采样率。 因模型而异:
|
format | str | - | 是 | 待识别音频格式。 支持的音频格式:'pcm'、'wav'、'mp3'、'opus'、'speex'、'aac'、'amr'。 |
vocabulary_id | str | - | 否 | 最新热词ID,支持最新v2系列模型并配置语种信息,此次语音识别中生效此热词ID对应的热词信息。默认不启用。使用方法请参考定制热词。 |
phrase_id | str | - | 否 | 热词ID,此次语音识别中生效此热词ID对应的热词信息。默认不启用。 注: |
disfluency_removal_enabled | bool | False | 否 | 过滤语气词,默认关闭。 |
language_hints | list[str] | ["zh", "en"] | 否 | 指定识别语音中语言的代码列表。 该参数仅适用于paraformer-realtime-v2模型。 支持的语言代码:
仅对支持多语言的模型生效。如果不填写则模型会自动识别语种。 |
semantic_punctuation_enabled | bool | True | 否 | 是否开启语义断句,服务默认开启语义断句,如果关闭则使用VAD (Voice Activity Detection)断句。一般而言,VAD断句延迟低适用于交互场景,语义断句准确适用于会议转写场景。 此功能只有v2系列模型支持。 重要 该参数默认开启(True),但对延迟敏感的场景建议设置为False。 |
max_sentence_silence | int | 800 | 否 | 语音断句检测阈值,如果一段语音后的静音时长超过该阈值,会被认为一个句子已经结束,参数范围200ms~6000ms,默认值800ms。 此功能只有v2系列模型支持。 说明 关闭语义断句( |
inverse_text_normalization_enabled | bool | True | 否 | 是否开启ITN(逆文本,Inverse Text Normalization),开启后(设置为True)中文数字会转换为阿拉伯数字。 此功能只有v2系列模型支持。 |
callback | RecognitionCallback | - | 否 | 回调接口。详情请参见回调接口(RecognitionCallback)。 |
响应结果
实时识别结果(RecognitionResult
)
RecognitionResult
代表一次实时识别的结果。
成员方法 | 方法签名 | 说明 |
get_sentence |
| 获取当前识别的句子及时间戳信息。回调中返回的是单句信息,所以此方法返回类型为Dict[str, Any]。 详情请参见单句信息(Sentence)。 |
get_request_id |
| 获取请求的request_id。 |
is_sentence_end |
| 判断给定句子是否已经结束。 |
单句信息(Sentence
)
Sentence类成员如下:
参数 | 类型 | 说明 |
begin_time | int | 句子开始时间,单位为ms。 |
end_time | int | 句子结束时间,单位为ms。 |
text | str | 识别文本。 |
words | list[Word] | 字时间戳信息。 详情请参见字时间戳信息(Word)。 |
emo_tag | str | 当前句子的情感:
仅在关闭语义断句( 仅paraformer-realtime-8k-v2模型支持情感识别。 |
emo_confidence | float | 当前句子识别情感的置信度,取值范围:[0.0,1.0]。值越大表示置信度越高。 仅paraformer-realtime-8k-v2模型支持情感识别。 |
字时间戳信息(Word
)
Word类成员如下:
参数 | 类型 | 说明 |
begin_time | int | 字开始时间,单位为ms。 |
end_time | int | 字结束时间,单位为ms。 |
text | str | 字。 |
punctuation | str | 标点。 |
关键接口
核心类(Recognition
)
Recognition
可以通过“from dashscope.audio.asr import *
”方式引入。
成员方法 | 方法签名 | 说明 |
call |
| 基于本地文件的同步调用,该方法会阻塞当前线程直到全部音频读完,该方法要求所识别文件具有可读权限。 识别结果以 |
start |
| 开始语音识别。 基于回调形式的流式实时识别,该方法不会阻塞当前线程。需要配合 |
send_audio_frame |
| 推送音频。每次推送的音频流不宜过大或过小,建议每包音频时长为100ms左右,大小在1KB~16KB之间。 识别结果通过回调接口(RecognitionCallback)的on_event方法获取。 |
stop |
| 停止语音识别,阻塞到服务将收到的音频都识别后结束任务。 |
get_last_request_id |
| 获取request_id,在构造函数调用(创建对象)后可以使用。 |
get_first_package_delay |
| 获取首包延迟,从发送第一包音频到收到首包识别结果延迟,在任务完成后使用。 |
get_last_package_delay |
| 获得尾包延迟,发送 |
get_response |
| 获取最后一次报文,可以用于获取task-failed报错。 |
回调接口(RecognitionCallback
)
流式调用时,服务端会通过回调的方式,将关键流程信息和数据返回给客户端。您需要实现回调方法,处理服务端返回的信息或者数据。
方法 | 参数 | 返回值 | 描述 |
| 无 | 无 | 当和服务端建立连接完成后,该方法立刻被回调。 |
|
| 无 | 当服务有回复时会被回调。 |
| 无 | 无 | 当所有识别结果全部返回后进行回调。 |
|
| 无 | 发生异常时该方法被回调。 |
| 无 | 无 | 当服务已经关闭连接后进行回调。 |
错误码
在使用API过程中,如果调用失败并返回错误信息,请参见错误信息进行解决。
更多示例
更多示例,请参见GitHub。
常见问题
请参见GitHub QA。