大模型对话接口

大模型对话接口主要用于直接与大语言模型进行对话。可以通过设置prompt参数指定问题或对话内容,支持不同的大语言模型,并可以设置是否需要绿网处理等选项。

前提条件

  • 获取身份鉴权API Key:调用OpenSearch-LLM智能问答版服务时,需要对调用者身份进行鉴权,具体请参见管理API Key

  • 获取服务调用地址:调用OpenSearch-LLM智能问答版服务时,需要提供服务的调用地址,具体请参见获取服务调用地址

接口信息

请求方法

请求协议

请求数据格式

POST

HTTP

JSON

请求URL

{host}/v3/openapi/apps/[app_group_identity]/actions/knowledge-llm

请求参数

参数

类型

描述

示例值

question

String

用户问题

what is OpenSearch

type

String

问题类型

text

content

Array

内容

["开放搜索","问天引擎"]

options

Json

选项

stream

Boolean

是否流式返回

false

prompt

String

prompt内容

model

String

可选的LLM模型

上海区域:

  • opensearch-qwen

  • opensearch-llama2-13b

  • opensearch-llama2-13b-turbo

  • opensearch-llama2-70b

  • opensearch-llama3-8b

  • qwen-turbo

  • qwen-plus

  • qwen-max

"qwen-turbo"

csi_level

String

大模型生成的内容是否需要经过绿网处理。

  • none: 表示不需要绿网处理

  • loose:不拦截疑似有问题的内容

none

请求体示例:

1、根据文档内容进行总结

{
  "question" : "用户问题",
  "type" : "text",
  "content" : ["候选的内容1","候选内容2"],
  "options" : {
     "stream" : false,  #是否流式返回,默认为false
  },
  "model": "Qwen",
  "csi_level" : "none"  # 大模型生成的内容是否需要经过绿网处理。none: 表示不需要绿网处理;loose:不拦截疑似有问题的内容
}

2、直接指定prompt回答

{
  "prompt": "prompt内容",
  "model": "Qwen",
  "options" : {
    "stream" : false,  #是否流式返回,默认为false
  },
  "csi_level" : "none"  # 大模型生成的内容是否需要经过绿网处理。none: 表示不需要绿网处理;loose:不拦截疑似有问题的内容
}
说明

一旦prompt内容被设置,那么questioncontent参数将会被忽视,该参数的内容会被直接作为大模型的prompt

返回参数

参数

类型

描述

示例值

request_id

String

请求ID

abc123-ABC

latency

Float

延迟

10.0

result

Json

结果

data

Array

返回数据集

answer

String

答案

answer text

type

String

答案类型

text

errors

Array

错误信息集

code

String

错误码

1001

message

String

错误信息

APP is not found

响应体示例:

{
  "request_id" : "",
  "latency" : 10.0, #单位s
  "result" : {
    "data": [
      {
        "answer" : "answer text",
        "type" : "text"
        ]
      }
    ]
  },
  "errors" : [
    {
      "code" : "如果有错误,这里填错误码",
      "message" : "如果有错误,这里填错误信息"
    }
  ]
}