服务部署完成后,您可以使用在线调试功能来测试服务是否运行正常。本文为您介绍如何进行服务在线调试。
操作步骤
登录PAI控制台,在页面上方选择目标地域,并在右侧选择目标工作空间,然后单击进入EAS。
在推理服务页签,单击目标服务操作列下的
>在线调试。
在调试页面的在线调试请求参数区域,设置请求参数,然后单击发送请求。
以vLLM部署的Qwen2.5-7B-Instruct模型服务为例,测试对话接口需在已有URL后添加
/v1/chat/completions
:
不同模型服务的请求方式、URL、请求body有一定差异,请根据具体模型服务配置。
大语言模型请参见LLM在线调试。
ComfyUI请参见ComfyUI API调用。
使用通用Processor(包括TensorFlow、Caffe、PMML等)部署服务,请参考基于通用Processor构造服务请求。
如果是通过Model Gallery部署的模型服务,可以参考模型介绍页面进行在线调试。
其他种类模型的服务请求数据,需要根据您自定义模型或镜像的数据输入格式来确定。
相关文档
该文章对您有帮助吗?