基于LLM的意图识别解决方案

该解决方案基于大语言模型(LLM)的意图识别技术,能够从海量的数据中学习到复杂的语言规律和用户行为模式,实现对用户意图的更精准识别和更自然流畅的交互体验。本方案以通义千问1.5(Qwen1.5)大语言模型为基础,为您介绍基于LLM的意图识别解决方案的完整开发流程。

背景信息

什么是意图识别

AI智能体通过理解人们用自然语言所表达的需求,来执行相应的操作或提供相应的信息,它是智能交互系统中不可或缺的一环。目前,基于大语言模型(LLM)的意图识别技术已经得到业界的广泛关注,并被广泛应用。

意图识别技术的典型场景示例

  • 在智能语音助手领域,用户通过简单的语音命令与语音助手进行交互。例如,当用户对语音助手说“我想听音乐”时,系统需要准确识别出用户的需求是播放音乐,然后执行相应操作。

  • 在智能客服场景中,挑战则体现在如何处理各种客户服务请求,并将它们快速准确地分类至例如退货、换货、投诉等不同的处理流程中。例如,在电子商务平台上,用户可能会表达“我收到的商品有瑕疵,我想要退货”。在这里,基于LLM的意图识别系统要能够迅速捕捉到用户的意图是“退货”,并且自动触发退货流程,进一步引导用户完成后续操作。

使用流程

基于LLM的意图识别解决方案的使用流程如下:

image
  1. 准备训练数据

    您可以参照数据格式要求和数据准备策略并针对特定的业务场景准备相应的训练数据集。您也可以参照数据准备策略准备业务数据,然后通过智能标注(iTAG)进行原始数据标注。导出标注结果,并转换为PAI-QuickStart支持的数据格式,用于后续的模型训练。

  2. 训练及离线评测模型

    在快速开始(QuickStart)中,基于Qwen1.5-1.8B-Chat模型进行模型训练。模型训练完成后,对模型进行离线评测。

  3. 部署及调用模型服务

    当模型评测结果符合您的预期后,通过快速开始(QuickStart)将训练好的模型部署为EAS在线服务。

前提条件

在开始执行操作前,请确认您已完成以下准备工作:

  • 已开通PAI(DLC、EAS)后付费,并创建默认工作空间,详情请参见开通PAI并创建默认工作空间

  • 已创建OSS存储空间(Bucket),用于存储训练数据和训练获得的模型文件。关于如何创建存储空间,详情请参见控制台快速入门

准备训练数据

支持使用以下两种方式准备训练数据:

数据准备策略

为了提升训练的有效性和稳定性,您可以参考以下策略准备数据:

  • 对于单意图识别场景,确保每类意图的标注数量至少为50100条,当模型微调效果不佳时,您可以考虑增加标注数据量。同时,您需要注意每类意图的标注数据量尽量均衡,不宜出现某类意图的标注数据量过多的情况。

  • 对于多意图识别场景或多轮对话场景,建议标注数据量在单意图识别场景数据量的20%以上,同时多意图识别场景或多轮对话场景涉及的意图需要在单意图识别场景中出现过。

  • 意图描述需要覆盖尽可能丰富的问法和场景。

数据格式要求

训练数据格式要求为:JSON格式的文件,包含instructionoutput两个字段,分别对应输入的指令和模型预测的意图以及对应的关键参数。对于不同的意图识别场景,相应的训练数据示例如下:

  • 对于单意图识别场景,您需要针对特定的业务场景,准备相应的业务数据,用于大语言模型(LLM)的微调训练。以智能家居的单轮对话为例,训练数据示例如下:

    [
        {
            "instruction": "我想听音乐",
            "output": "play_music()"
        },
        {
            "instruction": "太吵了,把声音开小一点",
            "output": "volume_down()"
        },
        {
            "instruction": "我不想听了,把歌关了吧",
            "output": "music_exit()"
        },
        {
            "instruction": "我想去杭州玩,帮我查下天气预报",
            "output": "weather_search(杭州)"
        },
    ]
  • 对于多意图识别场景或多轮对话场景,用户的意图可能会在多个对话轮次中表达。在这种情况下,您可以准备多轮对话数据,并对多轮用户的输入进行标注。以语音助手为例,给定一个多轮对话流:

    User:我想听音乐。
    Assistant:什么类型的音乐?
    User:给我放个***的音乐吧。
    Assistant:play_music(***)

    相应的多轮对话训练数据格式如下:

    [
        {
            "instruction": "我想听音乐。给我放个***的音乐吧。",
            "output": "play_music(***)"
        }
    ]

由于多轮对话模型训练的长度明显提升,而且在实际应用中,多轮对话意图识别场景数量有限。建议您仅当单轮对话的意图识别无法满足实际业务需求时,考虑应用多轮对话的模型训练方式。本方案将以单轮对话为例,为您展示该解决方案的整个使用流程。

使用iTAG平台进行数据标注

您也可以参考以下操作步骤,使用PAI-iTAG平台对数据进行标注,以生成满足特定要求的训练数据集。

  1. 将用于iTAG标注的数据注册到PAI数据集。

    1. 参考数据准备策略,准备manifest格式的数据文件,内容示例如下。

      {"data":{"instruction": "我想听音乐"}}
      {"data":{"instruction": "太吵了,把声音开小一点"}}
      {"data":{"instruction": "我不想听了,把歌关了吧"}}
      {"data":{"instruction": "我想去杭州玩,帮我查下天气预报"}}
    2. 进入AI资产管理>数据集页面,选择目标工作空间,并单击进入数据集

    3. 单击新建数据集,并配置以下关键参数,其他参数配置详情,请参见创建及管理数据集

      参数

      描述

      存储类型

      选择对象存储(OSS)

      导入格式

      选择文件

      OSS路径

      选择已创建的OSS目录,按照以下操作步骤上传已准备好的manifest文件:

      1. 单击image按钮,并在选择OSS文件对话框,单击上传文件

      2. 单击查看本地文件拖拽上传文件,根据提示上传manifest文件。

  2. 进入数据准备>智能标注(iTAG)页面,单击前往管理页,并切换到模版管理页签。

  3. 单击新建模版,选择自定义模版 > 基础模版,并单击编辑,完成相关参数配置后,单击保存模版。其中关键配置说明如下,更多配置详情,请参见模板管理

    配置

    描述

    基础模版画布区

    1. 选择文本,并单击生成内容卡片image

    2. 单击文本区域,在导入数据对话框中,选择已有数据集。然后在右侧的基础模版配置区域,选择数据集字段>instruction

    基础模版答题区

    选择输入框,并单击生成题目卡片。然后将标题修改为outputimage

  4. 在左侧导航栏选择管理中心 > 任务管理,然后在右侧的任务管理页签单击创建任务。在创建标注任务页面配置相关参数后,单击创建。关键配置说明如下,其他参数配置详情,请参见创建标注任务

    参数

    描述

    输入数据集

    选择上述步骤已创建的数据集。

    说明

    请注意,输入的数据和使用的模板对应。

    模版类型

    选择自定义模板,并在已有模板下拉框中,选择已创建的模板。

  5. 标注任务创建完成后,开始标注数据。具体操作,请参见处理标注任务image

  6. 完成数据标注后,将标注结果导出至OSS目录中。具体操作,请参见导出标注结果数据

    在本方案中,输出的manifest文件的内容示例如下,数据格式说明,请参见标注数据格式概述

    {"data":{"instruction":"我想听音乐","_itag_index":""},"label-1947839552568066048-system":{"fixedFlag":0,"results":[{"MarkResultId":"1947839554911772672","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"play_music()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236185165","MarkTime":"Wed Jul 23 10:03:05 CST 2025","UserMarkResultId":null,"IsNeedVoteJudge":false}],"abandonFlag":0},"label-1947839552568066048":{"results":[{"MarkResultId":"1947839554911772672","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"play_music()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236185165","MarkTime":"Wed Jul 23 10:03:05 CST 2025","UserMarkResultId":"1947839763671740416","IsNeedVoteJudge":false}]},"abandonFlag":0,"abandonRemark":null}
    {"data":{"instruction":"太吵了,把声音开小一点","_itag_index":""},"label-1947839552568066048-system":{"fixedFlag":0,"results":[{"MarkResultId":"1947839554891464704","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"volume_down()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236198979","MarkTime":"Wed Jul 23 10:03:19 CST 2025","UserMarkResultId":null,"IsNeedVoteJudge":false}],"abandonFlag":0},"label-1947839552568066048":{"results":[{"MarkResultId":"1947839554891464704","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"volume_down()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236198979","MarkTime":"Wed Jul 23 10:03:19 CST 2025","UserMarkResultId":"1947839868520656896","IsNeedVoteJudge":false}]},"abandonFlag":0,"abandonRemark":null}
    {"data":{"instruction":"我不想听了,把歌关了吧","_itag_index":""},"label-1947839552568066048-system":{"fixedFlag":0,"results":[{"MarkResultId":"1947839554992373760","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"music_exit()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236212152","MarkTime":"Wed Jul 23 10:03:32 CST 2025","UserMarkResultId":null,"IsNeedVoteJudge":false}],"abandonFlag":0},"label-1947839552568066048":{"results":[{"MarkResultId":"1947839554992373760","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"music_exit()\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236212152","MarkTime":"Wed Jul 23 10:03:32 CST 2025","UserMarkResultId":"1947839936657285120","IsNeedVoteJudge":false}]},"abandonFlag":0,"abandonRemark":null}
    {"data":{"instruction":"我想去杭州玩,帮我查下天气预报","_itag_index":""},"label-1947839552568066048-system":{"fixedFlag":0,"results":[{"MarkResultId":"1947839554971426816","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"weather_search(杭州)\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236218730","MarkTime":"Wed Jul 23 10:03:39 CST 2025","UserMarkResultId":null,"IsNeedVoteJudge":false}],"abandonFlag":0},"label-1947839552568066048":{"results":[{"MarkResultId":"1947839554971426816","MarkTitle":"基础模版","MarkResult":"{\"tabId\":\"CommonExtensions\",\"annotations\":[{\"id\":null,\"labels\":{\"output\":\"weather_search(杭州)\"},\"exif\":null}],\"type\":\"CommonExtensions\",\"version\":\"v2\"}","QuestionId":"CommonExtensions","ResultType":"OPEN_GROUP","Progress":null,"Version":"1753236218730","MarkTime":"Wed Jul 23 10:03:39 CST 2025","UserMarkResultId":"1947839975890939904","IsNeedVoteJudge":false}]},"abandonFlag":0,"abandonRemark":null}
  7. 在终端中,使用如下Python脚本,将上述生成的manifest格式的数据标注结果文件,转换为适用于快速开始(QuickStart)的训练数据格式。

    import json
    
    # 输入文件路径和输出文件路径
    input_file_path = 'test_json.manifest'
    output_file_path = 'train.json'
    
    converted_data = []
    
    with open(input_file_path, 'r', encoding='utf-8') as file:
        for line in file:
            try:
                # 解析每一行的JSON数据
                data = json.loads(line)
             
                # 提取instruction
                instruction = data['data']['instruction']
              
                # 遍历所有以 "label-" 开头的键
                for key in data.keys():
                    if key.startswith('label-'):
                        # 提取MarkResult并解析其内容
                        mark_result_str = data[key]['results'][0]['MarkResult']
                        mark_result = json.loads(mark_result_str)  # 将 MarkResult 字符串解析为 JSON
                   
                        # 提取annotations中的labels["output"]
                        output = mark_result['annotations'][0]['labels']['output']
                     
                        # 构建新的数据结构
                        converted_data.append({
                            'instruction': instruction,
                            'output': output
                        })
                        break
              
            except Exception as e:
                print(f"Error processing line: {line.strip()}. Error: {e}")
    
    # 将转换后的数据写入输出文件
    with open(output_file_path, 'w', encoding='utf-8') as outfile:
        json.dump(converted_data, outfile, ensure_ascii=False, indent=4)
    
    print(f"Conversion completed. Output saved to {output_file_path}")
    

    输出结果为JSON格式的文件。

训练及离线评测模型

训练模型

快速开始(QuickStart)汇集了优秀的AI开源社区预训练模型。您可以在快速开始(QuickStart)中,实现从训练到部署再至推理的完整流程,无需编写代码,极大简化了模型的开发过程。

本方案以Qwen1.5-1.8B-Chat模型为例,为您介绍如何使用已准备好的训练数据,在快速开始(QuickStart)中进行模型训练。具体操作步骤如下:

  1. 进入Model Gallery页面。

    1. 登录PAI控制台

    2. 在顶部左上角根据实际情况选择地域。

    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。

    4. 在左侧导航栏选择快速开始 > Model Gallery

  2. 在快速开始页面右侧的模型列表中,搜索并单击通义千问1.5-1.8B-Chat模型卡片,进入模型详情页面。

  3. 在模型详情页面,单击右上角的训练。然后在训练配置面板中,配置以下关键参数,其他参数取默认配置。

    参数

    描述

    训练方式

    • 全参微调:资源要求高,训练时间长,效果一般更好。

      说明

      参数量较小的模型支持全参数微调,请根据您的场景需要进行选择。

    • QLoRA:表示轻量化微调。相较于全参数微调,资源要求更低,训练时间更短,效果一般会差一些。

    • LoRA:同QLoRA。

    数据集配置

    训练数据集

    参照以下操作步骤,选择已准备好的训练数据集。

    1. 在下拉列表中选择OSS文件或目录

    2. 单击image按钮,选择已创建的OSS目录。

    3. 选择OSS文件对话框中,单击上传文件,拖拽上传已准备好的训练数据集文件,并单击确定

    输出配置

    模型输出路径

    选择OSS目录,用来存放训练输出的配置文件和模型文件。

    Tensorboard输出路径

    超参数配置

    关于超参数详细介绍,请参见1.全量超参数说明

    建议您按照以下超参数配置策略进行配置,针对不同的训练方式,关键超参数推荐配置,请参见2.超参数推荐配置

    • 注意根据不同的训练方式配置超参数。

    • 全局批次大小=卡数*per_device_train_batch_size*gradient_accumulation_steps

      • 为了最大化训练性能,优先调大卡数和per_device_train_batch_size。

      • 一般将全局批次大小设置为64256,当训练数据量很少时,可以适当调小。

    • 序列长度(seq_length)可以根据实际场景进行调整。例如,数据集中本文序列最大长度为50,则可以将序列长度设置为64(一般设置为2的次幂数)。

    • 当训练loss下降过慢或者不收敛时,建议您适当调大学习率(learning_rate)。同时,需要确认训练数据的数据质量是否有保证。

    1.全量超参数说明

    超参数

    类型

    含义

    默认值

    learning_rate

    FLOAT

    模型训练的学习率。

    5e-5

    num_train_epochs

    INT

    训练轮次。

    1

    per_device_train_batch_size

    INT

    每张GPU卡在一次训练迭代中处理的数据量。

    1

    seq_length

    INT

    文本序列长度。

    128

    lora_dim

    INT

    LoRA维度。当lora_dim>0时,使用LoRAQLoRA轻量化训练。

    32

    lora_alpha

    INT

    LoRA权重。当lora_dim>0时,使用LoRAQLoRA轻量化训练,该参数生效。

    32

    load_in_4bit

    BOOL

    模型是否以4比特加载。当lora_dim>0,load_in_4bittrueload_in_8bitfalse时,使用4比特QLoRA轻量化训练。

    false

    load_in_8bit

    BOOL

    模型是否以8比特加载。当lora_dim>0,load_in_4bitfalseload_in_8bittrue时,使用8比特QLoRA轻量化训练。

    false

    gradient_accumulation_steps

    INT

    梯度累积步数。

    8

    apply_chat_template

    BOOL

    算法是否为训练数据加上模型默认的Chat Template,以Qwen1.5系列模型为例,格式为:

    • 问题:<|im_start|>user\n + instruction + <|im_end|>\n

    • 答案:<|im_start|>assistant\n + output + <|im_end|>\n

    true

    system_prompt

    STRING

    模型训练的默认系统Prompt。当设置apply_chat_templatetrue时生效。您可以在Qwen1.5系列模型的训练中配置自定义的system_prompt,让大模型扮演某种特定的角色。算法会自行对训练数据进行扩展,您无需关注执行细节。例如将system_prompt设置为“你是一个意图识别专家,可以根据用户的问题识别出意图,并返回对应的意图和参数”。在这种情况下,给定一个训练样本:

    [
        {
            "instruction": "我想听音乐",
            "output": "play_music()"
        }
    ]

    实际用于训练的数据格式如下:

    <|im_start|>system\n你是一个意图识别专家,可以根据用户的问题识别出意图,并返回对应的意图和参数<|im_end|>\n<|im_start|>user\n我想听音乐<|im_end|>\n<|im_start|>assistant\nplay_music()<|im_end|>\n

    You are a helpful assistant

    2.超参数推荐配置

    参数

    全参数微调

    LoRA/QLoRA

    learning_rate

    5e-6、5e-5

    3e-4

    全局批次大小

    256

    256

    seq_length

    256

    256

    num_train_epochs

    3

    5

    lora_dim

    0

    64

    lora_alpha

    0

    16

    load_in_4bit

    False

    True/False

    load_in_8bit

    False

    True/False

  4. 单击训练按钮,在计费提醒对话框中单击确定

    系统自动跳转到训练任务详情页面,训练任务启动成功,您可以在该页面查看训练任务状态和训练日志。image

离线评测模型

当模型训练结束后,您可以在终端使用Python脚本,来评测模型效果。

  1. 准备评测数据文件testdata.json,内容示例如下:

    [
        {
            "instruction": "想知道的十年是谁唱的?",
            "output": "music_query_player(十年)"
        },
        {
            "instruction": "今天杭州的天气怎么样?",
            "output": "weather_search(杭州)"
        }
    ]
  2. 在终端中,使用如下Python脚本来离线评测模型。

    #encoding=utf-8
    from transformers import AutoModelForCausalLM, AutoTokenizer
    import json
    from tqdm import tqdm
    
    device = "cuda" # the device to load the model onto
    
    # 修改模型路径
    model_name = '/mnt/workspace/model/qwen14b-lora-3e4-256-train/'
    print(model_name)
    model = AutoModelForCausalLM.from_pretrained(
        model_name,
        torch_dtype="auto",
        device_map="auto"
    )
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    
    count = 0
    ecount = 0
    
    
    # 修改训练数据路径
    test_data = json.load(open('/mnt/workspace/data/testdata.json'))
    system_prompt = '你是一个意图识别专家,可以根据用户的问题识别出意图,并返回对应的函数调用和参数。'
    
    for i in tqdm(test_data[:]):
        prompt = '<|im_start|>system\n' + system_prompt + '<|im_end|>\n<|im_start|>user\n' + i['instruction'] + '<|im_end|>\n<|im_start|>assistant\n'
        gold = i['output']
        gold = gold.split(';')[0] if ';' in gold else gold
    
        model_inputs = tokenizer([prompt], return_tensors="pt").to(device)
        generated_ids = model.generate(
            model_inputs.input_ids,
            max_new_tokens=64,
            pad_token_id=tokenizer.eos_token_id,
            eos_token_id=tokenizer.eos_token_id,
            do_sample=False
        )
        generated_ids = [
            output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
        ]
        pred = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
        if gold.split('(')[0] == pred.split('(')[0]:
            count += 1
            gold_list = set(gold.strip()[:-1].split('(')[1].split(','))
            pred_list = set(pred.strip()[:-1].split('(')[1].split(','))
            if gold_list == pred_list:
                ecount += 1
        else:
            pass
    
    print("意图识别准确率:", count/len(test_data))
    print("参数识别准确率:", ecount/len(test_data))
    说明

    如果代码执行结果返回提示信息 Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate,请按照提示执行pip install accelerate安装依赖库。

部署及调用模型服务

部署模型服务

当评测模型效果符合预期时,您可以按照以下操作步骤,将训练获得的模型部署为EAS在线服务。

  1. 任务详情页面右上角单击部署,系统已默认配置了基本信息和资源信息,部署方式选择vLLM加速部署,您也可以根据需要进行修改,参数配置完成后单击部署按钮。

  2. 计费提醒对话框中,单击确定

    系统自动跳转到部署任务页面,当状态运行中时,表示服务部署成功。

调用模型服务

以下提供一个API调用示例,展示如何通过客户端发起Request调用:

  1. 获取服务访问地址和Token。

    1. 服务详情页面的基本信息区域,单击查看调用信息image

    2. 调用信息对话框中,查询服务访问地址和Token,并保存到本地。

  2. vLLM加速部署为例,调用代码示例如下。您可以在终端中执行此代码调用服务。

    from openai import OpenAI
    
    ##### API 配置 #####
    openai_api_key = "<EAS_SERVICE_TOKEN>"
    openai_api_base = "<EAS_SERVICE_URL>/v1/"
    
    client = OpenAI(
        api_key=openai_api_key,
        base_url=openai_api_base,
    )
    
    models = client.models.list()
    model = models.data[0].id
    print(model)
    
    
    def main():
        stream = True
        chat_completion = client.chat.completions.create(
            messages=[
                 {
                    "role": "system",
                    "content": [
                        {
                            "type": "text",
                            "text": "你是一个意图识别专家,可以根据用户的问题识别出意图,并返回对应的意图和参数。",
                        }
                    ],
                },
                {
                    "role": "user",
                    "content": [
                        {
                            "type": "text",
                            "text": "我想听音乐",
                        }
                    ],
                }
            ],
            model=model,
            max_completion_tokens=2048,
            stream=stream,
        )
    
        if stream:
            for chunk in chat_completion:
                print(chunk.choices[0].delta.content, end="")
        else:
            result = chat_completion.choices[0].message.content
            print(result)
    
    
    if __name__ == "__main__":
        main()
    

    其中:

    • <EAS_SERVICE_URL>:配置为已获取的服务访问地址。

    • <EAS_SERVICE_TOKEN>:配置为已获取的服务Token。

相关文档

  • 更多关于iTAG的使用流程以及标注数据格式要求,请参见智能标注(iTAG)

  • 更多关于EAS产品的内容介绍,请参见模型在线服务(EAS)

  • 使用快速开始(QuickStart)功能,您可以轻松完成更多场景的部署与微调任务,包括Llama-3、Qwen1.5、Stable Diffusion V1.5等系列模型。详情请参见场景实践