Python SDK

本文介绍如何使用阿里云智能语音服务提供的Python SDK,包括SDK的安装方法及SDK代码示例。

前提条件

在使用SDK前,请先阅读接口说明,详情请参见接口说明

下载安装

说明
  • SDK仅支持Python3,暂不支持Python2。

  • 请确认已安装Python包管理工具setuptools。如果没有安装,请在终端使用以下命令安装:

    pip install setuptools
  1. 下载Python SDK。

    Github获取Python SDK,或直接下载alibabacloud-nls-python-sdk-0.0.1.zip

  2. 安装SDK依赖。

    进入SDK根目录使用如下命令安装SDK依赖:

    python -m pip install -r requirements.txt
  3. 安装SDK。

    依赖安装完成后使用如下命令安装SDK:

    python -m pip install .
  4. 安装完成后通过以下代码导入SDK。

    # -*- coding: utf-8 -*-
    import nls
说明

上述命令均需要在SDK根目录中执行。

多线程和多并发

在CPython中,由于存在全局解释器锁,同一时刻只有一个线程可以执行Python代码(虽然某些性能导向的库可能会去除此限制)。如果您想更好地利用多核心计算机的计算资源,推荐你使用multiprocessingconcurrent.futures.ProcessPoolExecutor。 如果你想要同时运行多个I/O密集型任务,则多线程仍然是一个合适的模型。

如果单解释器有太多线程,将会在线程间切换造成更多消耗,有可能会导致SDK出现错误。不建议使用超过200线程,推荐使用multiprocessing技术或者手动使用脚本创建多个解释器。

关键接口

一句话识别对应的类为nls.NlsSpeechRecognizer,其核心方法如下:

1. 初始化(__init__)

  • 参数说明

参数

类型

参数说明

url

String

网关WebSocket URL地址,默认为wss://nls-gateway.cn-shanghai.aliyuncs.com/ws/v1

akid

String

阿里云账号AccessKey ID,默认为None。

  • 若未已填写token字段,则需要填写该字段。

  • 若已填写token字段,则该字段可不填写。

aksecret

String

阿里云账号AccessKey Secret,默认为None。

  • 若未已填写token字段,则需要填写该字段。

  • 若已填写token字段,则该字段可不填写。

token

String

访问Token,详情可参见获取Token概述

on_start

Function

当一句话识别就绪时的回调参数。回调参数包含以下两种:

  • JSON形式的字符串

  • 用户自定义参数

其中,用户自定义参数为下方callback_args字段中返回的参数内容。

on_result_changed

Function

当一句话识别返回中间结果时的回调参数。回调参数包含以下两种:

  • JSON形式的字符串

  • 用户自定义参数

其中,用户自定义参数为下方callback_args字段中返回的参数内容。

on_completed

Function

当一句话识别返回最终识别结果时的回调参数。回调参数包含以下两种:

  • JSON形式的字符串

  • 用户自定义参数

其中,用户自定义参数为下方callback_args字段中返回的参数内容。

on_error

Function

当SDK或云端出现错误时的回调参数。回调参数包含以下两种:

  • JSON形式的字符串

  • 用户自定义参数

其中,用户自定义参数为下方callback_args字段中返回的参数内容。

on_close

Function

当和云端连接断开时的回调参数。回调参数为用户自定义参数,即用户自定义参数为下方callback_args字段中返回的参数内容。

callback_args

List

用户自定义参数列表,列表中的内容会打包(pack)成List数据结构传递给各个回调的最后一个参数。

  • 返回值:无

2. start

同步开始一句话识别,该方法会阻塞当前线程直到一句话识别就绪(on_start回调返回)。

  • 参数说明

参数

类型

参数说明

aformat

String

要识别音频格式,支持PCM,OPUS,OPU,默认值:PCM。

SDK不会自动将PCM编码成OPUS或OPU,如果需要使用OPUS或OPU,您可自行编码实现。

sample_rate

Integer

识别音频采样率,默认值:16000 Hz。

ch

Integer

音频通道数,默认值:1,目前仅支持单通道。

enable_intermediate_result

Boolean

是否返回中间结果,默认值:False。

enable_punctuation_prediction

Boolean

是否进行识别结果标点预测,默认值:False。

enable_inverse_text_normalization

Boolean

是否进行ITN(逆文本规整,inverse text normalization),默认值:False。

timeout

Integer

阻塞超时,默认值:10秒。

ping_interval

Integer

Ping包发送间隔,默认值:8秒。无需间隔可设置为0或None。

ping_timeout

Integer

是否检查Pong包超时,默认值:None。None为不检查Pong包是否超时。

ex

Dict

用户提供的额外参数,该字典内容会以key:value形式合并进请求的payload段中,具体可参见接口说明章节中的请求数据。

  • 返回值:Boolean类型,False为失败,True为成功。

3. stop

停止一句话识别,并同步等待on_completed回调结束。

  • 参数说明

参数

类型

参数说明

timeout

Integer

阻塞超时,默认值:10秒。

  • 返回值:Boolean类型,False为失败,True为成功。

4. shutdown

强行关闭当前请求,重复调用无副作用。

  • 参数说明:无

  • 返回值:无

5. send_audio

发送二进制音频数据,发送数据的格式需要和start中的aformat对应。

  • 参数说明

参数

类型

参数说明

pcm_data

Bytes

要发送的二进制音频数据,格式需要和上一次调用时start中的aformat相对应。

SDK不会自动将PCM编码成OPUS或OPU,如果需要使用OPUS或OPU,您可自行编码实现。

  • 返回值:Boolean类型,False为失败,True为成功。

代码示例

说明
  • 本示例中使用的音频文件为16000 Hz采样率,PCM格式,您可以使用tests文件夹下的test1.pcm,请在智能语音交互管控台将Appkey对应项目的模型设置为通用模型,以获取准确的识别结果;如果使用其他音频,请设置为支持该音频场景的模型。关于模型设置,请参见管理项目

  • 本示例中使用SDK内置的默认外网访问服务端URL,如果您使用阿里云上海地域的ECS,并需要通过内网访问服务端URL,请使用如下URL:URL="ws://nls-gateway.cn-shanghai-internal.aliyuncs.com/ws/v1"

import time
import threading
import sys

import nls


URL="wss://nls-gateway.cn-shanghai.aliyuncs.com/ws/v1"
AKID="yourAccessKeyId"      /#获取AccessKey ID和AccessKey Secret请前往控制台:https://ram.console.aliyun.com/manage/ak
AKKEY="yourAccessKeySecret"
APPKEY="yourAppkey"      #获取Appkey请前往控制台:https://nls-portal.console.aliyun.com/applist

#以下代码会根据音频文件内容反复进行一句话识别
class TestSr:
    def __init__(self, tid, test_file):
        self.__th = threading.Thread(target=self.__test_run)
        self.__id = tid
        self.__test_file = test_file
   
    def loadfile(self, filename):
        with open(filename, "rb") as f:
            self.__data = f.read()
    
    def start(self):
        self.loadfile(self.__test_file)
        self.__th.start()

    def test_on_start(self, message, *args):
        print("test_on_start:{}".format(message))

    def test_on_error(self, message, *args):
        print("on_error args=>{}".format(args))

    def test_on_close(self, *args):
        print("on_close: args=>{}".format(args))

    def test_on_result_chg(self, message, *args):
        print("test_on_chg:{}".format(message))

    def test_on_completed(self, message, *args):
        print("on_completed:args=>{} message=>{}".format(args, message))


    def __test_run(self):
        print("thread:{} start..".format(self.__id))
        
        sr = nls.NlsSpeechRecognizer(
                    url=URL,
                    akid=AKID,
                    aksecret=AKKEY,
                    appkey=APPKEY,
                    on_start=self.test_on_start,
                    on_result_changed=self.test_on_result_chg,
                    on_completed=self.test_on_completed,
                    on_error=self.test_on_error,
                    on_close=self.test_on_close,
                    callback_args=[self.__id]
                )
        while True:
            print("{}: session start".format(self.__id))
            r = sr.start(aformat="pcm", ex={"hello":123})
           
            self.__slices = zip(*(iter(self.__data),) * 640)
            for i in self.__slices:
                sr.send_audio(bytes(i))
                time.sleep(0.01)

            r = sr.stop()
            print("{}: sr stopped:{}".format(self.__id, r))
            time.sleep(1)

def multiruntest(num=500):
    for i in range(0, num):
        name = "thread" + str(i)
        t = TestSr(name, "tests/test1.pcm")
        t.start()

#设置打开日志输出
nls.enableTrace(True)
multiruntest(1)
阿里云首页 智能语音交互 相关技术圈