本文档汇总了在使用阿里云百炼大模型服务平台时遇到的常见问题及其解答。
计费相关
-
阿里云百炼平台中模型服务中各模型的收费单价是什么?
-
模型部署的费用是如何计算的?
请查看模型部署计费。
-
千问大模型训练单价计费是什么?
请查看模型训练计费。
-
目前是否有预付费相关的服务?
部分模型支持预付费服务,详情请参见节省计划与资源包。
-
后付费的账单是月结算吗?
按分钟级出账,按月结算。
-
如何查询扣款项及明细?
请前往费用与成本查看。
-
已经消费的金额,如何申请开票?
登录费用与成本控制台,进入发票管理页面,点击开具发票页签。按照需求进行申请开票即可。
-
开通服务时提示“您的账户可用额度小于0,请先充值后再尝试购买”,应该怎么办?
您需要保证阿里云账户余额不小于0元,才能成功开通服务。
-
万相会员是否支持百炼API调用?
不支持。万相会员与阿里云百炼的计费体系相互独立,万相会员权益不适用于百炼的API调用。
API/SDK相关
-
Completion API 调用报错提示“参数缺失”,错误码“100004”,是什么问题?
缺少必须参数,如果必须参数没有缺失,则检查参数格式书写是否正确。
正确示例如下:
curl --location 'https://bailian.aliyuncs.com/v2/app/completions' \ --header 'Content-Type: application/json' \ --header 'Authorization: Bearer 85763*************cf050f' \ --data '{ "RequestId":"B8265C3E-9248-56C0-8665-A37A12F06F6B", "AppId":"3cc760a7ef5d47d09255dd28b06b94d8", "Prompt":"今天深圳天气如何?", "User":"1", "Bot":"1" }' -
如何查看错误码信息?
阿里云百炼模型服务的API调用将返回状态码以标识调用结果。详情及解决方案请参见错误信息。
-
如何安装SDK?
阿里云百炼目前支持Java和Python语言的SDK。详情请参见安装SDK。
-
Assistant API 调用 function call ,用户需要依次调用两个本地函数,现在支持吗?
a.目前不支持分别调用两个函数。
b.手动创建两个Assistant API,分别分配两个Assistant API的使用返回。
-
Assistant API 有memory相关的能力吗?
当前暂不支持memory配置功能。
-
doc_reference_type 参数设置后不生效?
doc_reference_type 参数只在旧版本应用中生效,新版本应用中直接在应用操作页面开启展示答案来源按钮即可。

产品相关
-
如何开通阿里云百炼服务?
使用阿里云主账号前往阿里云百炼控制台(北京或新加坡),阅读并同意协议后,将自动开通阿里云百炼,如果未弹出服务协议,则表示您已经开通。
如果开通服务时提示“您尚未进行实名认证”,请先进行实名认证。
-
开通阿里云百炼服务后如何关闭?
目前,阿里云百炼服务开通后暂不支持关闭。如果您通过API来调用模型/应用,您只需要在控制台的API-Key(北京)或API-Key(新加坡)页面中删除已创建的 API-Key 即可避免后续的调用。
-
如何体验大模型服务?
可前往模型体验中心(北京)或模型体验中心(新加坡)页面进行体验,详细内容请查看:模型体验介绍。
-
阿里云百炼和千问的区别是什么?
阿里云百炼是一个大模型服务平台,提供包括千问系列在内的多种大模型。
-
我的产品接入了千问大模型,需要上架到微信小程序等其他应用商店,需要提供合作协议用于上架产品,应该怎么申请?
a.备案号获取流程请查看应用合规备案;
b.如需申请千问系列模型的合作协议,请提交阿里云工单进行申请。
-
如何实现业务数据隔离,使不同用户的数据之间不关联?
可以通过主账号给不同子账号授予不同的业务空间权限,不同业务空间的数据互不影响,存在隔离。详细内容请前往业务空间权限管理查看。
-
阿里云百炼是否保存模型调用时产生的数据?
阿里云严格保护数据隐私,绝不会将您的数据用于模型训练。同时,您在构建应用或训练大模型过程中传输的数据都会经过AES-256(Advanced Encryption Standard,高级加密标准)加密,确保数据安全。
根据相关法律法规要求,阿里云百炼将存储模型与应用调用时产生的数据。详情请参见《阿里云百炼服务协议》中关于数据处理、隐私和安全的条款。
-
在百炼控制台的模型体验页面,历史对话记录会保留多久?保存数量有限制吗?
百炼控制台最多展示 100 条历史对话记录,不设时间限制。如果您手动删除了部分记录,系统会自动展示更早的历史记录。未登录状态下的体验对话以及推理报错时的对话记录不会被保存。
模型中心
-
完形填空词的数据能作为训练题吗?
可以的,可以通过上传训练集时,指定好问题内容及答案,引导大模型学习。可以点击自定义模型最佳实践参考。
-
目前阿里云百炼只能训练文字吗?图片可以训练吗?
目前已支持图片训练,qwen-vl-plus模型支持训练微调。
-
使用高阶模型微调,低阶模型做能力下沉,是想做蒸馏吗?
该技术通过微调高阶模型获取强大知识,然后将其转移至低阶模型,实现模型压缩与性能优化,使得低阶模型在保持小巧、高效的同时,获得接近或超越高阶模型的性能。
-
所谓大模型参数是怎么存储的?
您可以从魔搭社区下载开源模型,其结构通常在JSON文件中定义。通常需要使用开源的Python库来解析这些文件,其中包含了向量信息,这有助于理解其存储过程。
-
语料数据集的多样性怎么定义?
语料数据集的多样性是指其在语言特征、内容主题、文本类型、写作风格、语言变体、作者背景、时间跨度等多个维度上体现出的丰富程度和差异性,旨在真实反映语言的实际使用情况,提升NLP模型的泛化能力和对多元应用场景的适应性。
-
个人使用大模型训练时,qwen-turbo和qwen-max应该怎么选?
qwen-turbo注重速度与资源效率,适合对响应速度和部署便捷性有较高要求的场景;qwen-max则聚焦顶级性能与全面知识,适用于对模型精度和处理复杂任务能力有严格要求的环境。其中qwen-turbo的费用要比qwen-max低。根据您的具体需求和条件权衡,选择最适合自己的模型版本。也可以查看模型介绍:千问介绍了解具体差异。
-
模型训练中的自定义模型怎么上传?
模型调优中的自定义模型是指您已训练完成的模型,想要二次训练时,所选择的自定义模型。若是您自己在本地训练的模型不支持上传。
-
训练完的开源模型是否支持导出?
目前不支持。
-
千问系列模型支持多少种语言?
14种,分别是中文、英文、阿拉伯语、西班牙语、法语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、印度尼西亚语。
-
当前模型可以对接结构化数据吗?比如MySQL和hive等。
当前不支持。但已经在开发中,优先对接RDS服务。
-
千问升级后, 企业大模型需要重新训练么?
不一定。是否以及何时进行企业大模型的重新训练,取决于客户自己。如果训练出来的模型,效果在客户场景中表现良好,就没必要再训练一遍。基模型的升级,在客户的应用场景会带来什么样的变化,是无法预知的,需要客户用我们的效果评估工具进行评估(如果客户判断需要)。
-
发现阿里云百炼上的base model模型,有时候模型自己会重复说话,并且在base model上进行微调后,这种现象发现会更严重一些,是什么原因?
这种是大模型的幻觉问题,当你输入的问题大模型没有知识回答的时候就可能出现。如果在base model上训练后更严重,就是没有训练好,训练效果与训练数据质量、多样性、数据等都有关系。
-
我们正在训练一个垂直领域的模型,如果SFT阶段只用领域数据,不混入千问原始的SFT数据,是否垂直领域的数据越多越容易过拟合,并导致回答重复啰嗦?有什么最佳实践建议吗?
仅使用垂直领域数据进行SFT,确实可能会导致模型遗忘原有的通用知识。
为了准备高质量的领域SFT数据,请注意:
-
任务定义清晰:避免同一个输入(prompt)对应模棱两可的答案。
-
数据质量高:答案应准确、简洁,直接回答问题,避免冗余和无关的“废话”。
-
数据多样性:同一语义可以用多种不同的prompt来表达,以避免模型只学会响应单一的模式。高质量的训练数据通常需要多次迭代优化。
-
-
在训练的时候发现,数据量少的情况下,比如100条左右,循环次数越大效果越好。但在数据量多的情况下比如1000条以上,循环次数越多越容易过拟合。请问这个超参配置和数据配比,有什么最佳实践?
为获得理想的模型效果,训练数据在保证高质量的同时应尽可能丰富,尤其是在处理复杂任务时。循环次数等超参数并无固定规律,需根据具体任务通过实验来确定。例如,在处理包含数千条数据的复杂任务时,训练通常需要20轮左右。另外,评估大模型不应仅通过损失(loss)判断是否过拟合。与传统模型不同,即便loss显示过拟合,大模型的实际效果仍可能提升,因此最终效果需以人工评估为准。
-
请问Qwen3、Qwen-Max等模型的文字生成速度对所有用户都是固定的吗,有没有调速的途径?
生成速度不是固定的,它会受到当前服务的整体负载和您的请求并发情况等因素的影响。
-
模型限流触发后,一般需要等多长时间再次尝试呢?
等待时间取决于您的具体限流值(RPS/RPM)。例如,如果您的限流是120 RPM(每分钟查询数),即每秒2次请求。如果您在0.2秒内连续提交了2次请求,第3次请求就会被限流,您需要等待大约0.8秒后才能再次成功提交。
模型幻觉问题
-
什么是模型幻觉?
模型幻觉指大语言模型(LLM)在生成内容时,无中生有、虚构事实、扭曲信息或产生逻辑矛盾的现象。其输出看似合理、流畅,但与输入、真实世界知识或上下文逻辑严重不符。需要注意的是,幻觉不同于事实性错误(如训练数据过时导致的错误)、主观观点表达或创造性虚构(如明确要求写小说时),其核心在于"无依据的自信断言"。
-
如何降低模型幻觉?
您可以通过以下方式降低模型幻觉的发生:
-
选择更强的模型:通常选择更大型、更高级的模型可以降低幻觉发生。例如在千问系列中,Max级别模型的效果优于Plus级别,Plus级别优于Turbo级别。
-
提示词工程:修改prompt是操作简单且有效的降低模型幻觉的方式。例如在RAG场景中添加"请仅基于提供的文档回答,如果信息不足请说'我不知道'";添加"请引用具体数据或报告支持你的结论";通过prompt引导将任务分为多步;在prompt中设定严谨的角色等。
-
RAG(检索增强生成):利用RAG的能力,让模型的回复有所参考,并严格限制模型回答在检索到的知识范围内,可以显著降低幻觉。构建RAG系统时,需要确保检索系统高质量、清晰标注信息来源、优雅拒绝检索不到的情况。
-
插件/MCP:利用插件或MCP的能力降低模型幻觉。例如利用大模型去总结结构化数据库中的数据时,可以通过插件/MCP调用数据库客户端完成数据计算,再将计算结果返回给模型做总结,避免模型直接处理数值计算时产生幻觉。
-
模型参数调优:降低
temperature、top_k、top_p等随机性参数,使输出更保守,避免离奇生成,但可能牺牲创造力。降低max_tokens在某些场景下可以防止模型回复关键信息后继续捏造内容。 -
后处理验证:模型推理完成之后,通过后续步骤验证回复内容的正确性。通常是通过AI的能力再去校验一次回答过程是否有幻觉。该方法会增加成本并降低模型请求处理速度。
-