本文介绍通过 OpenAI 兼容接口 或 DashScope API 调用GUI-Plus模型的输入与输出参数。
相关文档:界面交互专用模型(GUI-Plus)
OpenAI 兼容
SDK 调用配置的base_url为:https://dashscope.aliyuncs.com/compatible-mode/v1
HTTP 调用配置的endpoint:POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions
您需要已获取API Key并配置API Key到环境变量。若通过OpenAI SDK进行调用,需要安装SDK。
请求体 | 非流式输出PythonNode.jscurl流式输出PythonNode.jscurl |
model 模型名称。支持的模型:gui-plus。 | |
messages | |
stream 是否以流式方式输出回复。 可选值:
| |
stream_options 流式输出的配置项,仅在 | |
max_tokens 用于限制模型输出的最大 Token 数。若生成内容超过此值,响应将被截断。 默认值与最大值均为模型的最大输出长度,请参见模型与价格。 | |
vl_high_resolution_images 是否将输入图像的像素上限提升至 16384 Token 对应的像素值。
| |
seed 随机数种子。用于确保在相同输入和参数下生成结果可复现。若调用时传入相同的 取值范围: | |
temperature 采样温度,控制模型生成文本的多样性。 temperature越高,生成的文本更多样,反之,生成的文本更确定。 取值范围: [0, 2) temperature与top_p均可以控制生成文本的多样性,建议只设置其中一个值。 | |
top_p 核采样的概率阈值,控制模型生成文本的多样性。 top_p越高,生成的文本更多样。反之,生成的文本更确定。 取值范围:(0,1.0] temperature与top_p均可以控制生成文本的多样性,建议只设置其中一个值。 | |
top_k 生成过程中采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个Token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。取值为None或当top_k大于100时,表示不启用top_k策略,此时仅有top_p策略生效。 取值需要大于或等于0。 该参数非OpenAI标准参数。通过 Python SDK调用时,请放入 extra_body 对象中,配置方式为: | |
repetition_penalty 模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度,1.0表示不做惩罚。该参数对模型效果影响较大,建议保持默认值。 | |
presence_penalty 控制模型生成文本时的内容重复度。默认值为1.5 取值范围:[-2.0, 2.0]。正值降低重复度,负值增加重复度。 在创意写作或头脑风暴等需要多样性、趣味性或创造力的场景中,建议调高该值;在技术文档或正式文本等强调一致性与术语准确性的场景中,建议调低该值。 | |
stop 用于指定停止词。当模型生成的文本中出现 可传入敏感词以控制模型的输出。 stop为数组时,不可将 |
chat响应对象(非流式输出) | |
id 本次请求的唯一标识符。 | |
choices 模型生成内容的数组。 | |
created 本次请求被创建时的时间戳。 | |
model 本次请求使用的模型。 | |
object 始终为 | |
service_tier 该参数当前固定为 | |
system_fingerprint 该参数当前固定为 | |
usage 本次请求的 Token 消耗信息。 |
chat响应chunk对象(流式输出) | |
id 本次调用的唯一标识符。每个chunk对象有相同的 id。 | |
choices 模型生成内容的数组。若设置 | |
created 本次请求被创建时的时间戳。每个chunk有相同的时间戳。 | |
model 本次请求使用的模型。 | |
object 始终为 | |
service_tier 该参数当前固定为 | |
system_fingerprint 该参数当前固定为 | |
usage 本次请求消耗的Token。只在 |
DashScope
HTTP 请求地址:
POST https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generationSDK 调用:无需配置
base_url
您需要已获取API Key并配置API Key到环境变量。若通过DashScope SDK进行调用,需要安装DashScope SDK。
请求体 | 非流式输出PythonJavacurl流式输出PythonJavacurl |
model 模型名称。支持的模型:gui-plus。 | |
messages 传递给大模型的上下文,按对话顺序排列。 通过HTTP调用时,请将messages 放入 input 对象中。 | |
vl_high_resolution_images 是否将输入图像的像素上限提升至 16384 Token 对应的像素值。
| |
max_tokens 用于限制模型输出的最大 Token 数。若生成内容超过此值,响应将被截断。 默认值与最大值均为模型的最大输出长度,请参见模型与价格。 Java SDK中为maxTokens。通过HTTP调用时,请将 max_tokens 放入 parameters 对象中。 | |
seed 随机数种子。用于确保在相同输入和参数下生成结果可复现。若调用时传入相同的 取值范围: 通过HTTP调用时,请将 seed 放入 parameters 对象中。 | |
temperature 采样温度,控制模型生成文本的多样性。 temperature越高,生成的文本更多样,反之,生成的文本更确定。 取值范围: [0, 2) temperature与top_p均可以控制生成文本的多样性,建议只设置其中一个值。 通过HTTP调用时,请将 temperature 放入 parameters 对象中。 | |
top_p 核采样的概率阈值,控制模型生成文本的多样性。 top_p越高,生成的文本更多样。反之,生成的文本更确定。 取值范围:(0,1.0] temperature与top_p均可以控制生成文本的多样性,建议只设置其中一个值。 Java SDK中为topP。通过HTTP调用时,请将 top_p 放入 parameters 对象中。 | |
repetition_penalty 模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度,1.0表示不做惩罚。该参数对模型效果影响较大,建议保持默认值。 Java SDK中为repetitionPenalty。通过HTTP调用时,请将 repetition_penalty 放入 parameters 对象中。 | |
presence_penalty 控制模型生成文本时的内容重复度。默认值为1.5 取值范围:[-2.0, 2.0]。正值降低重复度,负值增加重复度。 在创意写作或头脑风暴等需要多样性、趣味性或创造力的场景中,建议调高该值;在技术文档或正式文本等强调一致性与术语准确性的场景中,建议调低该值。 | |
top_k 生成过程中采样候选集的大小。例如,取值为50时,仅将单次生成中得分最高的50个Token组成随机采样的候选集。取值越大,生成的随机性越高;取值越小,生成的确定性越高。取值为None或当top_k大于100时,表示不启用top_k策略,此时仅有top_p策略生效。 取值需要大于或等于0。 该参数非OpenAI标准参数。通过 Python SDK调用时,请放入 extra_body 对象中,配置方式为: Java SDK中为topK。通过HTTP调用时,请将 top_k 放入 parameters 对象中。 | |
repetition_penalty 模型生成时连续序列中的重复度。提高repetition_penalty时可以降低模型生成的重复度,1.0表示不做惩罚。该参数对模型效果影响较大,建议保持默认值。 | |
stream 是否以流式方式输出回复。 可选值:
该参数仅支持Python SDK。通过Java SDK实现流式输出请通过 | |
incremental_output 在流式输出模式下是否开启增量输出。推荐您优先设置为 参数值:
Java SDK中为incrementalOutput。通过HTTP调用时,请将 incremental_output 放入 parameters 对象中。 | |
stop 用于指定停止词。当模型生成的文本中出现 可传入敏感词以控制模型的输出。 stop为数组时,不可将 |
chat响应对象(流式与非流式输出格式一致) | |
status_code 本次请求的状态码。200 表示请求成功,否则表示请求失败。 Java SDK不会返回该参数。调用失败会抛出异常,异常信息为status_code和message的内容。 | |
request_id 本次调用的唯一标识符。 Java SDK返回参数为requestId。 | |
code 错误码,调用成功时为空值。 只有Python SDK返回该参数。 | |
output 调用结果信息。 | |
usage 本次请求使用的Token信息。 |
错误码
如果模型调用失败并返回报错信息,请参见错误信息进行解决。