通义千问代码模型具有强大的代码能力,您可以通过API接口调用,将通义千问代码模型集成到您的业务中。
模型概览
模型名称 | 模型版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-coder-turbo | 稳定版本 | 131,072 | 129,024 | 8,192 | 0.002元 | 0.006元 | 100万Token 有效期:百炼开通后180天内 |
qwen-coder-turbo-latest | 最新 | ||||||
qwen-coder-turbo-0919 | 快照 | ||||||
qwen-coder-turbo-2024-09-19 |
关于模型的限流条件,请参见限流。
前提条件
请您参考获取API-KEY,开通百炼服务并获得API-KEY。
请在模型概览中选择您需要使用的模型。
您可以使用OpenAI Python SDK、DashScope SDK或HTTP接口调用通义千问模型,请您根据您的需求,参考以下方式准备您的计算环境。
说明如果您之前使用OpenAI SDK以及HTTP方式调用OpenAI的服务,只需在原有框架下调整API-KEY、base_url、model等参数,就可以直接调用通义千问代码模型。
调用方式
准备条件
通过OpenAI Python SDK调用
您可以通过以下命令安装或更新OpenAI SDK:
# 如果下述命令报错,请将pip替换为pip3 pip install -U openai
您需要配置的base_url如下:
https://dashscope.aliyuncs.com/compatible-mode/v1
通过OpenAI兼容-HTTP调用
如果您需要通过OpenAI兼容的HTTP方式进行调用,需要配置的完整访问endpoint如下:
POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions
通过DashScope SDK调用
DashScope SDK提供了Python和Java两个版本,请参考安装SDK,安装最新版SDK。
通过DashScope HTTP调用
如果您需要通过DashScope的HTTP方式进行调用,需要配置的完整访问endpoint如下:
POST https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation
我们推荐您将API-KEY配置到环境变量中以降低API-KEY的泄漏风险,详情可参考配置API-KEY到环境变量。您也可以在代码中配置API-KEY,但是会存在泄露风险。
示例代码
此处以令通义千问代码模型编写一个寻找质数的Python函数为例,向您展示通义千问代码模型在解决代码问题上的能力。
OpenAI兼容
您可以通过OpenAI SDK或OpenAI兼容的HTTP方式调用通义千问代码模型。
Python
示例代码
from openai import OpenAI
import os
def get_response():
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"), # 如果您没有配置环境变量,请在此处用您的API Key进行替换
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务的base_url
)
completion = client.chat.completions.create(
model="qwen-coder-turbo",
messages=[
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': '请编写一个Python函数 find_prime_numbers,该函数接受一个整数 n 作为参数,并返回一个包含所有小于 n 的质数(素数)的列表。质数是指仅能被1和其自身整除的正整数,如2, 3, 5, 7等。'}],
)
print(completion.model_dump_json())
if __name__ == '__main__':
get_response()
返回结果
{
"id": "chatcmpl-fbc92ee2-ade3-9931-b207-710e3f545d81",
"choices": [
{
"finish_reason": "stop",
"index": 0,
"logprobs": null,
"message": {
"content": "```python\ndef find_prime_numbers(n):\n prime_numbers = []\n for potential_prime in range(2, n):\n is_prime = True\n for num in range(2, int(potential_prime ** 0.5) + 1):\n if potential_prime % num == 0:\n is_prime = False\n break\n if is_prime:\n prime_numbers.append(potential_prime)\n return prime_numbers\n\n# 示例使用\nprint(find_prime_numbers(10)) # 输出: [2, 3, 5, 7]\n```\n在这个函数中,我们首先定义了一个空列表 `prime_numbers` 来存储找到的质数。然后,我们遍历从2到n-1的所有数字,对于每个数字,我们检查它是否是质数。我们通过尝试将这个数字除以2到它的平方根之间的所有数字来实现这一点。如果发现有任意一个数字可以整除它,则该数字不是质数,我们跳过这个数字。如果没有任何数字可以整除它,则它是质数,我们将其添加到 `prime_numbers` 列表中。最后,函数返回这个包含所有质数的列表。",
"refusal": null,
"role": "assistant",
"function_call": null,
"tool_calls": null
}
}
],
"created": 1726643153,
"model": "qwen-coder-turbo",
"object": "chat.completion",
"service_tier": null,
"system_fingerprint": null,
"usage": {
"completion_tokens": 250,
"prompt_tokens": 85,
"total_tokens": 335
}
}
curl
示例代码
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-coder-turbo",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "请编写一个Python函数 find_prime_numbers,该函数接受一个整数 n 作为参数,并返回一个包含所有小于 n 的质数(素数)的列表。质数是指仅能被1和其自身整除的正整数,如2, 3, 5, 7等。"
}
]
}'
返回结果
{
"choices": [
{
"message": {
"role": "assistant",
"content": "```python\ndef find_prime_numbers(n):\n primes = []\n for possiblePrime in range(2, n):\n isPrime = True\n for num in range(2, int(possiblePrime ** 0.5) + 1):\n if possiblePrime % num == 0:\n isPrime = False\n break\n if isPrime:\n primes.append(possiblePrime)\n return primes\n\n# 示例使用\nprint(find_prime_numbers(10)) # 输出: [2, 3, 5, 7]\n```\n这个函数通过遍历从2到n-1的所有数字,并检查每个数字是否为质数来工作。对于每个可能的质数,它都会检查是否有任何小于其平方根的数字可以整除它。如果没有找到这样的数字,则该数字是质数,并将其添加到结果列表中。最后,函数返回包含所有找到的质数的列表。"
},
"finish_reason": "stop",
"index": 0,
"logprobs": null
}
],
"object": "chat.completion",
"usage": {
"prompt_tokens": 85,
"completion_tokens": 195,
"total_tokens": 280
},
"created": 1726643486,
"system_fingerprint": null,
"model": "qwen-coder-turbo",
"id": "chatcmpl-c0fb4906-2a88-9b55-9abe-08c591dcb4f4"
}
DashScope
您可以通过DashScope SDK或HTTP方式调用通义千问代码模型。
Python
示例代码
from http import HTTPStatus
import dashscope
def call_with_messages():
messages = [
{'role': 'user', 'content': '请编写一个Python函数 find_prime_numbers,该函数接受一个整数 n 作为参数,并返回一个包含所有小于 n 的质数(素数)的列表。质数是指仅能被1和其自身整除的正整数,如2, 3, 5, 7等。'}]
response = dashscope.Generation.call(
model='qwen-coder-turbo',
messages=messages,
result_format='message',
)
if response.status_code == HTTPStatus.OK:
print(response)
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
))
if __name__ == '__main__':
call_with_messages()
返回结果
{
"status_code": 200,
"request_id": "75138129-60ee-996d-abe2-f08ef0153523",
"code": "",
"message": "",
"output": {
"text": null,
"finish_reason": null,
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "```python\ndef find_prime_numbers(n):\n primes = []\n for possiblePrime in range(2, n):\n isPrime = True\n for num in range(2, int(possiblePrime ** 0.5) + 1):\n if possiblePrime % num == 0:\n isPrime = False\n break\n if isPrime:\n primes.append(possiblePrime)\n return primes\n\n# 示例使用\nprint(find_prime_numbers(10)) # 输出: [2, 3, 5, 7]\n```\n这个函数通过遍历从2到n-1的所有数字,检查每个数字是否为质数。对于每个数字,它会检查是否有任何小于等于其平方根的因子。如果没有找到这样的因子,则该数字是质数,并将其添加到结果列表中。最后返回这个包含所有质数的列表。"
}
}
]
},
"usage": {
"input_tokens": 74,
"output_tokens": 184,
"total_tokens": 258
}
}
Java
示例代码
import java.util.Arrays;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.aigc.generation.models.QwenParam;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.utils.JsonUtils;
public class Main {
public static void callWithMessage()
throws NoApiKeyException, ApiException, InputRequiredException {
Generation gen = new Generation();
Message userMsg = Message.builder()
.role(Role.USER.getValue())
.content("请编写一个Python函数 find_prime_numbers,该函数接受一个整数 n 作为参数,并返回一个包含所有小于 n 的质数(素数)的列表。质数是指仅能被1和其自身整除的正整数,如2, 3, 5, 7等。").build();
QwenParam param =
QwenParam.builder().model("qwen-coder-turbo").messages(Arrays.asList(userMsg))
.resultFormat(QwenParam.ResultFormat.MESSAGE)
.build();
GenerationResult result = gen.call(param);
System.out.println(JsonUtils.toJson(result));
}
public static void main(String[] args){
try {
callWithMessage();
} catch (ApiException | NoApiKeyException | InputRequiredException e) {
System.out.println(e.getMessage());
}
System.exit(0);
}
}
返回结果
{
"requestId": "8cde1ac3-0404-91a3-a740-9627114f71f0",
"usage": {
"input_tokens": 74,
"output_tokens": 229,
"total_tokens": 303
},
"output": {
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "```python\ndef find_prime_numbers(n):\n def is_prime(num):\n if num <= 1:\n return False\n for i in range(2, int(num**0.5) + 1):\n if num % i == 0:\n return False\n return True\n\n prime_numbers = []\n for number in range(2, n):\n if is_prime(number):\n prime_numbers.append(number)\n return prime_numbers\n\n# 示例使用:\nprint(find_prime_numbers(30)) # 输出:[2, 3, 5, 7, 11, 13, 17, 19, 23, 29]\n```\n在这个解决方案中,我们首先定义了一个辅助函数 `is_prime` 来检查一个数是否为质数。然后在主函数 `find_prime_numbers` 中,我们遍历从2到n-1的所有数字,并使用 `is_prime` 函数来判断每个数字是否为质数,如果是,则将其添加到结果列表 `prime_numbers` 中。最后返回这个列表。"
}
}
]
}
}
curl
示例代码
curl -X POST "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation" \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen-coder-turbo",
"input":{
"messages":[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "请编写一个Python函数 find_prime_numbers,该函数接受一个整数 n 作为参数,并返回一个包含所有小于 n 的质数(素数)的列表。质数是指仅能被1和其自身整除的正整数,如2, 3, 5, 7等。"
}
]
},
"parameters": {
"result_format": "message"
}
}'
返回结果
{
"output": {
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "```python\ndef find_prime_numbers(n):\n primes = []\n for possiblePrime in range(2, n):\n isPrime = True\n for num in range(2, int(possiblePrime ** 0.5) + 1):\n if possiblePrime % num == 0:\n isPrime = False\n break\n if isPrime:\n primes.append(possiblePrime)\n return primes\n\n# 示例使用:\nprint(find_prime_numbers(10)) # 输出: [2, 3, 5, 7]\n```\n这个函数通过遍历从2到n-1的所有数字,检查每个数字是否为质数。如果是质数,则将其添加到结果列表中。最后返回包含所有小于n的质数的列表。"
}
}
]
},
"usage": {
"total_tokens": 247,
"output_tokens": 162,
"input_tokens": 85
},
"request_id": "e67209f6-e107-914b-b89f-fdfa3d6535df"
}
输入与输出参数
您可以通过下表查看不同调用方式的输入参数与输出参数。其中,数据类型列中各字段的含义如下所示:
string:字符串类型。
array:在Python中表示列表,在Java中表示ArrayList。
integer:表示整数型。
float:浮点型。
boolean:布尔型。
object:哈希表。
OpenAI Python SDK
输入参数
参数 | 类型 | 默认值 | 说明 |
model | string | - | 用户使用model参数指明对应的模型。 |
messages | array | - | 用户与模型的对话历史。array中的每个元素形式为 |
top_p(可选) | float | - | 生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0],取值越大,生成的随机性越高;取值越低,生成的确定性越高。 |
temperature(可选) | float | - | 用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围: [0, 2),不建议取值为0,无意义。 |
presence_penalty (可选) | float | - | 用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。 |
max_tokens(可选) | integer | - | 指定模型可生成的最大token个数。根据模型不同有不同的上限限制,一般不超过2000。 |
seed(可选) | integer | - | 生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 |
stream(可选) | boolean | False | 用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,每次输出为当前生成的增量序列。 |
stop(可选) | string or array | None | stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
|
tools(可选) | array | None | 说明 通义千问代码模型对于function call等工具调用能力较弱,不建议将通义千问代码模型用于function call;如需使用function call能力,建议使用通用的文本模型。 用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。 |
stream_options(可选) | object | None | 该参数用于配置在流式输出时是否展示使用的token数目。只有当stream为True的时候该参数才会激活生效。若您需要统计流式输出模式下的token数目,可将该参数配置为 |
出参描述
返回参数 | 数据类型 | 说明 | 备注 |
id | string | 系统生成的标识本次调用的id。 | 无 |
model | string | 本次调用的模型名。 | 无 |
system_fingerprint | string | 模型运行时使用的配置版本,当前暂时不支持,返回为空字符串“”。 | 无 |
choices | array | 模型生成内容的详情。 | 无 |
choices[i].finish_reason | string | 有三种情况:
| |
choices[i].message | object | 模型输出的消息。 | |
choices[i].message.role | string | 模型的角色,固定为assistant。 | |
choices[i].message.content | string | 模型生成的文本。 | |
choices[i].index | integer | 生成的结果序列编号,默认为0。 | |
created | integer | 当前生成结果的时间戳(s)。 | 无 |
usage | object | 计量信息,表示本次请求所消耗的token数据。 | 无 |
usage.prompt_tokens | integer | 用户输入文本转换成token后的长度。 | 您可以参考字符串与token之间的互相转换进行token的估计。 |
usage.completion_tokens | integer | 模型生成回复转换为token后的长度。 | 无 |
usage.total_tokens | integer | usage.prompt_tokens与usage.completion_tokens的总和。 | 无 |
OpenAI兼容HTTP
输入参数
传参方式 | 参数 | 类型 | 默认值 | 说明 |
Header | Authorization | string | - | API-KEY,例如:Bearer d1**2a |
Content-Type | string | - | 请求类型,例如:application/json | |
Body | model | string | - | 用户使用model参数指明对应的模型。 |
messages | array | - | 用户与模型的对话历史。array中的每个元素形式为 | |
| float | - | 生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0],取值越大,生成的随机性越高;取值越低,生成的确定性越高。 | |
temperature(可选) | float | - | 用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围: [0, 2),不建议取值为0,无意义。 | |
presence_penalty (可选) | float | - | 用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。 | |
max_tokens(可选) | integer | - | 指定模型可生成的最大token个数。根据模型不同有不同的上限限制,一般不超过2000。 | |
seed(可选) | integer | - | 生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 | |
stream(可选) | boolean | False | 用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,每次输出为当前生成的增量序列。 | |
stop(可选) | string or array | None | stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
| |
tools(可选) | array | None | 说明 通义千问代码模型对于function call等工具调用能力较弱,不建议将通义千问代码模型用于function call;如需使用function call能力,建议使用通用的文本模型。 用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。 说明 tools暂时无法与stream=True同时使用。 | |
stream_options(可选) | object | None | 该参数用于配置在流式输出时是否展示使用的token数目。只有当stream为True的时候该参数才会激活生效。若您需要统计流式输出模式下的token数目,可将该参数配置为 |
出参描述
返回参数 | 数据类型 | 说明 | 备注 |
id | string | 系统生成的标识本次调用的id。 | 无 |
model | string | 本次调用的模型名。 | 无 |
system_fingerprint | string | 模型运行时使用的配置版本,当前暂时不支持,返回为空字符串“”。 | 无 |
choices | array | 模型生成内容的详情。 | 无 |
choices[i].finish_reason | string | 有三种情况:
| |
choices[i].message | object | 模型输出的消息。 | |
choices[i].message.role | string | 模型的角色,固定为assistant。 | |
choices[i].message.content | string | 模型生成的文本。 | |
choices[i].index | integer | 生成的结果序列编号,默认为0。 | |
created | integer | 当前生成结果的时间戳(s)。 | 无 |
usage | object | 计量信息,表示本次请求所消耗的token数据。 | 无 |
usage.prompt_tokens | integer | 用户输入文本转换成token后的长度。 | 您可以参考字符串与token之间的互相转换进行token的估计。 |
usage.completion_tokens | integer | 模型生成回复转换为token后的长度。 | 无 |
usage.total_tokens | integer | usage.prompt_tokens与usage.completion_tokens的总和。 | 无 |
DashScope SDK
输入参数
参数 | 数据类型 | 默认值 | 说明 |
model(必选) | string | 无 | 指定用于对话的通义千问模型名。 |
messages | array | 无 |
说明 messages和prompt任选一个参数使用即可。由于和prompt组合使用的对话历史参数history即将废弃,仅依赖prompt指令会限制模型进行有记忆的对话能力。 messages参数允许模型参考历史对话,从而更准确地解析用户的意图,确保对话的流程性和连续性,因此在多轮对话场景下推荐您优先使用messages参数。 |
prompt | string | 无(与messages不可同时为空) | |
seed(可选) | integer | 生成时使用的随机数种子,用于控制模型生成内容的随机性。seed支持无符号64位整数。 | |
max_tokens(可选) 说明 Java SDK中为maxTokens。 | integer | 指定模型可生成的最大token个数。 | |
top_p(可选) 说明 Java SDK中为topP。 | float | 生成过程中的核采样方法概率阈值,例如,取值为0.8时,仅保留概率加起来大于等于0.8的最可能token的最小集合作为候选集。取值范围为(0,1.0],取值越大,生成的随机性越高;取值越低,生成的确定性越高。 | |
top_k(可选) 说明 Java SDK中为topK。 | integer | 生成时,采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。取值为None或当top_k大于100时,表示不启用top_k策略,此时,仅有top_p策略生效。 | |
repetition_penalty(可选) 说明 Java SDK中为repetitionPenalty。 | float | 用于控制模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度,1.0表示不做惩罚。没有严格的取值范围。 | |
presence_penalty(可选) 说明 Java SDK中暂不支持该参数。 | float | 用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围[-2.0, 2.0]。 | |
temperature(可选) | float | 用于控制模型回复的随机性和多样性。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围:[0, 2),不建议取值为0,无意义。 | |
stop (可选) | string or array | None | stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止。stop可以为string类型或array类型。
|
stream (可选) | boolean | False | 用于控制是否使用流式输出。当以stream模式输出结果时,接口返回结果为generator,需要通过迭代获取结果,默认每次输出为当前生成的整个序列,最后一次输出为最终全部生成结果,可以通过设置参数incremental_output为False改变输出模式为非增量输出。 |
result_format(可选) 说明 Java SDK中为resultFormat。 | string | text | 用于指定返回结果的格式,默认为text,也可选择message。推荐您优先使用message格式。 |
incremental_output (可选) 说明 Java SDK中为incrementalOutput。 | boolean | False | 控制在流式输出模式下是否开启增量输出,即后续输出内容是否包含已输出的内容。设置为True时,将开启增量输出模式,后面输出不会包含已经输出的内容,您需要自行拼接整体输出;设置为False则会包含已输出的内容。 默认False: I I like I like apple True: I like apple 该参数只能在stream为True时使用。 说明 incremental_output暂时无法和tools参数同时使用。 |
tools | array | None | 说明 通义千问代码模型对于function call等工具调用能力较弱,不建议将通义千问代码模型用于function call;如需使用function call能力,建议使用通用的文本模型。 用于指定可供模型调用的工具库,一次function call流程模型会从中选择其中一个工具。tools中每一个tool的结构如下:
使用tools时需要同时指定result_format为message。在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。 |
返回结果
当result_format设置为message时,返回结果示例如下:
{ "status_code": 200, "request_id": "b3d8bb75-05a2-9044-8e9e-ec8c87689a5e", "code": "", "message": "", "output": { "text": null, "finish_reason": null, "choices": [ { "finish_reason": "stop", "message": { "role": "assistant", "content": "材料:\n- 萝卜:2根\n- 土豆:2个\n- 茄子:2个\n- 大葱:1根\n- 姜:适量\n- 蒜:适量\n- 食用油:适量\n- 盐:适量\n- 生抽:适量\n- 蚝油:适量\n\n做法:\n\n1. 将萝卜、土豆、茄子分别洗净去皮,切成块状备用。\n2. 大葱切断,姜切片,蒜切末备用。\n3. 烧热锅,加入适量的食用油,放入葱段、姜片、蒜末爆香。\n4. 加入萝卜块,翻炒几分钟,加入适量的盐、生抽调味。\n5. 加入土豆块,继续翻炒几分钟,加入适量的盐、生抽调味。\n6. 加入茄子块,继续翻炒几分钟,加入适量的盐、生抽调味。\n7. 加入适量的蚝油,翻炒均匀,让每一块蔬菜都均匀地裹上蚝油。\n8. 翻炒几分钟,让蔬菜熟透,即可出锅。\n\n这道菜色香味俱佳,营养丰富,可以作为主食或配菜食用。" } } ] }, "usage": { "input_tokens": 31, "output_tokens": 267 } }
当result_format设置为text时,返回结果示例如下:
{ "status_code": 200, "request_id": "446877aa-dbb8-99ca-98eb-d78a5e90fe61", "code": "", "message": "", "output": { "text": "材料:\n- 萝卜:2根\n- 土豆:2个\n- 茄子:2个\n- 大葱:1根\n- 姜:适量\n- 蒜:适量\n- 食用油:适量\n- 盐:适量\n- 生抽:适量\n- 蚝油:适量\n\n做法:\n\n1. 将萝卜、土豆、茄子分别洗净去皮,切成块状备用。\n2. 大葱切段,姜切片,蒜切末备用。\n3. 烧热锅,加入适量的食用油,放入葱段、姜片、蒜末爆香。\n4. 加入萝卜块,翻炒几分钟,加入适量的盐、生抽调味。\n5. 加入土豆块,继续翻炒几分钟,加入适量的盐、生抽调味。\n6. 加入茄子块,继续翻炒几分钟,加入适量的盐、生抽调味。\n7. 加入适量的蚝油,翻炒均匀,让每一块蔬菜都均匀地裹上蚝油。\n8. 翻炒几分钟,让蔬菜熟透,即可出锅。\n\n这道菜色香味俱佳,营养丰富,可以作为主食或配菜食用。", "finish_reason": "stop", "choices": null }, "usage": { "input_tokens": 31, "output_tokens": 267 } }
出参描述
参数 | 类型 | 说明 |
status_code | int | 200(HTTPStatus.OK)表示请求成功,否则表示请求失败,可以通过code获取错误码,通过message字段获取错误详细信息。 |
request_Id | string | 系统生成的标志本次调用的ID。 |
code | string | 表示请求失败,表示错误码,成功忽略。 |
message | string | 失败,表示失败详细信息,成功忽略。 |
output | dict | 调用结果信息,对于千问模型,包含输出text。 |
output.usage | dict | 计量信息,表示本次请求的计量数据。 |
output.text | string | 模型生成回复。 |
output.finish_reason | string | 包括以下三种情况:
|
usage.input_tokens | int | 用户输入文本转换成Token后的长度。 |
usage.output_tokens | int | 模型生成回复转换为Token后的长度。 |
choices | List | [] |
choices[i].finish_reason | string | 包括以下三种情况:
|
choices[i].message | dict | 模型生成消息输出。 |
message.role | string | 模型role,固定为assistant。 |
message.content | string | 模型生成的文本。 |
DashScope HTTP
输入参数
传参方式 | 字段 | 数据类型 | 必选 | 描述 | 示例值 |
Header | Content-Type | string | 是 | 请求类型:application/json | "Content-Type":"application/json" |
Accept | string | 否 | 选择text/event-stream则会开启SSE响应,默认无设置。 | "Accept":"text/event-stream" | |
Authorization | string | 是 | API-KEY,例如:Bearer d1**2a | "Authorization":"Bearer d1**2a" | |
X-DashScope-WorkSpace | string | 否 | 指明本次调用需要使用的workspace;需要注意的是,对于子账号Apikey调用,此参数为必选项,子账号必须归属于某个workspace才能调用;对于主账号Apikey此项为可选项,添加则使用对应的workspace身份,不添加则使用主账号身份。 | ws_QTggmeAxxxxx | |
X-DashScope-SSE | string | 否 | 设置为enable或者设置Accept: text/event-stream即可启用SSE响应。 | "X-DashScope-SSE":"enable" | |
Body | model | string | 是 | 指定用于对话的通义千问模型名。 | "model":"qwen-coder-turbo" |
input | object | 是 | 输入模型的信息。 | 无 | |
input.prompt 说明 字段中的点号(.)表示后者为前者的属性。在API测试工具中,并不能直接将Key设置为input.prompt。传入方式为"input":{"prompt":"xxx"}。 | string | 否 | 用户当前输入的期望模型执行指令,支持中英文。与input.messages指定其中一个即可。 | "input":{"prompt":"你好"} | |
input.history | array | 否 | 即将废弃,请使用messages字段。用户与模型的对话历史,array中的每个元素形式为{"user":"用户输入","bot":"模型输出"}的一轮对话,多轮对话按时间正序排列。 | "input":{"history":[{"user":"今天天气好吗?", "bot":"今天天气不错,要出去玩玩嘛?"}, {"user":"那你有什么地方推荐?", "bot":"我建议你去公园,春天来了,花朵开了,很美丽。"}]} | |
input.messages | array | 否 | 表示用户与模型的对话历史。array中的每个元素形式为
角色可选值: | "input":{ "messages":[ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "你好,附近哪里有博物馆?" }] } | |
input.messages.role | string | messages存在的时候不能省略。 | |||
input.messages.content | string | ||||
input.messages.name | string | input.messages.role为tool时不能省略 | role为 | ||
parameters | object | 否 | 用于控制模型生成的参数 | 无 | |
parameters.result_format | string | 否 | 用于指定返回结果的格式,默认为text,也可设置为message。推荐优先使用message格式。 | "parameters":{"result_format":"message"} | |
parameters.seed | integer | 否 | 生成时使用的随机数种子,用户控制模型生成内容的随机性。seed支持无符号64位整数。在使用seed时,模型将尽可能生成相同或相似的结果,但目前不保证每次生成的结果完全相同。 | "parameters":{"seed":666} | |
parameters.max_tokens | integer | 否 | 用于限制模型生成token的数量,表示生成token个数的上限。 | "parameters":{"max_tokens":1500} | |
parameters.top_p | float | 否 | 生成时,核采样方法的概率阈值。例如,取值为0.8时,仅保留累计概率之和大于等于0.8的概率分布中的token,作为随机采样的候选集。取值范围为(0,1.0],取值越大,生成的随机性越高;取值越低,生成的随机性越低。注意,取值不要大于等于1。 | "parameters":{"top_p":0.7} | |
parameters.top_k | integer | 否 | 生成时,采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。注意:如果top_k参数为空或者top_k的值大于100,表示不启用top_k策略,此时仅有top_p策略生效。 | "parameters":{"top_k":50} | |
parameters.repetition_penalty | float | 否 | 用于控制模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度。1.0表示不做惩罚。没有严格的取值范围。 | "parameters":{"repetition_penalty":1.0} | |
parameters.presence_penalty | float | 否 | 用户控制模型生成时整个序列中的重复度。提高presence_penalty时可以降低模型生成的重复度,取值范围 [-2.0, 2.0]。 | "parameters":{"presence_penalty":1.0} | |
parameters.temperature | float | 否 | 用于控制随机性和多样性的程度。具体来说,temperature值控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的temperature值会降低概率分布的峰值,使得更多的低概率词被选择,生成结果更加多样化;而较低的temperature值则会增强概率分布的峰值,使得高概率词更容易被选择,生成结果更加确定。 取值范围:[0, 2),不建议取值为0,无意义。 | "parameters":{"temperature":0.85} | |
parameters.stop | string/array | 否 | stop参数用于实现内容生成过程的精确控制,在模型生成的内容即将包含指定的字符串或token_id时自动停止,生成的内容不包含指定的内容。stop可以为string类型或array类型。
| "parameters":{"stop":["你好","天气"]} | |
parameters.incremental_output | boolean | 否 | 控制在流式输出模式下是否开启增量输出,即后续输出内容是否包含已输出的内容。设置为True时,将开启增量输出模式,后面输出不会包含已经输出的内容,您需要自行拼接整体输出;设置为False则会包含已输出的内容。 默认False: I I like I like apple True: I like apple 该参数只能在开启SSE响应时使用。 说明 incremental_output暂时无法和tools参数同时使用。 | "parameters":{"incremental_output":false} | |
parameters.tools | array | 否 | 说明 通义千问代码模型对于function call等工具调用能力较弱,不建议将通义千问代码模型用于function call;如需使用function call能力,建议使用通用的文本模型。 用于指定可供模型调用的工具列表。当输入多个工具时,模型会选择其中一个生成结果。tools中每一个tool的结构如下:
使用tools时需要同时指定result_format为message。在function call流程中,无论是发起function call的轮次,还是向模型提交工具函数的执行结果,均需设置tools参数。 |
|
出参描述
字段 | 数据类型 | 描述 | 示例值 |
output.text | string | 模型输出的内容。当result_format设置为text时返回该字段。 | 我建议你去颐和园 |
output.finish_reason | string | 有三种情况:正在生成时为null,生成结束时如果由于停止token导致则为stop,生成结束时如果因为生成长度过长导致则为length。当result_format设置为text时返回该字段。 | stop |
output.choices | array | 当result_format设置为message时返回该字段。 |
|
output.choices[x].finish_reason | string | 停止原因,null:生成过程中 stop:stop token导致结束 length:生成长度导致结束 | |
output.choices[x].message | object | message每个元素形式为{"role":角色, "content": 内容}。角色可选值: | |
output.choices[x].message.role | string | ||
output.choices[x].message.content | string | ||
output.choices[x].message.tool_calls | object | 如果模型需要调用工具,则会生成tool_calls参数,应用于function_call场景。其中包含type和function两个参数,参数详情如下:
| |
usage | object | 本次调用使用的token信息。 | 无 |
usage.output_tokens | integer | 模型输出内容的 token个数。 | 380 |
usage.input_tokens | integer | 本次请求输入内容的token个数。 | 633 |
usage.total_tokens | integer | usage.output_tokens与usage.input_tokens的总和。 | 1013 |
request_id | string | 本次请求的系统唯一码。 | 7574ee8f-38a3-4b1e-9280-11c33ab46e51 |