文档

LLM模型离线推理

更新时间:

LLM模型离线推理组件支持的LLM模型来源于PAI的快速开始中的部分LLM模型,将在线推理转为离线推理。

使用限制

仅支持DLC计算引擎。

可视化配置参数

您可以在Designer中,通过可视化的方式配置组件参数。

页签

参数

是否必选

描述

默认值

字段设置

model_name

模型名称。

推理结果保存目录

保存推理结果的OSS目录。如果为空,使用工作空间的默认路径。

推理数据路径,支持OSS和MaxCompute

推理数据路径。如果已经连接到其他输入组件,可不填。数据格式请参见示例。每个样本可自定义top_ktemperature等参数,默认使用参数设置中配置的参数值。

模型OSS路径

模型输入的OSS路径,如果已经连接到其他输入组件,可不填。如果为空且未连接到其他输入组件,则使用模型名称对应的默认预训练模型。

参数设置

top_k

模型从最可能的k个选项中随机选择一个。

1

top_p

模型从累计概率大于或等于p的最小集合中随机选择一个。

0.8

temperature

控制生成文本随机性的参数。较高的温度值会产生更随机的输出,而较低的温度值则会使模型更倾向于选择最可能的单词。

0.95

max_new_tokens

生成的最大token数量。

2048

system_prompt

系统提示词,作用在整个模型推理过程中。

Act like you are programmer with 5+ years of experience.

执行调优

GPU

选择用于计算的GPU的ECS实例。

最大运行时长(秒)

算法运行的最长时间。

相关文档

  • 本页导读 (1)
文档反馈