在ModelHub,PAI提供多种已经训练好的自然语言处理类模型供您使用,涵盖了文本分类、文本匹配、序列标注及特征提取应用。本文为您介绍每种模型的输入格式、输出格式及使用示例。

背景信息

自然语言处理NLP(Natural Language Processing)是人工智能和语言学领域的分支学科,能够挖掘自然语言文本蕴含的信息和知识。常见的应用包括:
  • 文本分类:适用于新闻标签打标、情感分析、文本内容反垃圾及商品评价分类等场景。
  • 文本匹配:适用于问答匹配、句子相似度匹配、自然语言推理及对话检索等场景。
  • 文本生成:适用于新闻标题生成、新闻摘要生成、内容摘要生成、诗歌创作及智能化辅助创作等场景。
  • 序列标注:适用于命名实体识别NER及情感词抽取等场景。
  • 特征提取:提取的文本特征可以在文本领域或结合其他领域(例如计算机视觉)进行后续操作。
PAI提供以上类型的模型及服务部署流程,具体模型包括:
类型模型功能
文本分类新闻分类模型将新闻的文本内容分类为教育、三农及娱乐等标签。
文本内容反垃圾模型识别垃圾文本内容,并将其分类为正常、辱骂或恶意推广等标签。
通用情感分析模型识别通用文本内容,并对其进行情感分析,从而判断文本内容为正向情感或负向情感。
英文情感分析模型识别英文文本内容,并对其进行情感分析,从而判断文本内容为差评、中评还是好评。
电商评论情感分析模型针对电商场景,识别电商文本内容,并对其进行情感分析,从而判断文本内容为正向情绪或负向情绪。
通用情绪检测模型检测通用文本内容的情绪,并将其分为高兴、生气、悲伤、惊讶、恐惧或无情绪等情绪标签。
文本匹配类金融文本匹配模型针对金融领域的蚂蚁金服相似问题,能够判断两段金融文本是否相似。
通用文本匹配模型判断两段通用文本是否相似。
通用问答匹配模型判断两段文本(问题文本和答案文本)是否匹配。
文本生成新闻标题生成模型输入一段新闻文本,您可以根据实际需要,自动输出新闻标题。
序列标注类中文基础NER模型识别中文基础命名实体(NER),即识别文本中的人名、地名及组织名。
特征提取类BERT文本向量化模型将BERT作为一个特征提取器,输入一个中文文本序列,输出一个向量序列。
BERT英文文本向量化模型将BERT作为一个特征提取器,输入一个英文文本序列,输出一个向量序列。

ModelHub登录入口

您可以通过如下方法进入ModelHub:
  1. 登录PAI控制台
  2. 在左侧导航栏,选择大数据与AI体验 > ModelHub

新闻分类模型

  • 模型介绍
    PAI提供了BERT分类模型进行新闻文本分类,能够将新闻的文本内容分类为教育、三农及娱乐等标签。该模型的输入为单句,模型结构如下图所示。文本分类
  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待分类的新闻文本字符串,sequence_length对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "待分类的新闻文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[28]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括教育三农娱乐健康美文搞笑美食财经科技旅游汽车时尚科学文化房产热点母婴家居体育国际育儿宠物游戏健身职场读书艺术动漫[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "确诊病例超1000例墨西哥宣布进入卫生紧急状态。中新网3月31日电综合报道,墨西哥新冠肺炎病例已超过1000例,墨西哥政府30日宣布进入卫生紧急状态,加强相关措施以遏制新冠肺炎疫情蔓延。30日,墨西哥卫生官员报告该国新冠肺炎病例累计达1094例,死亡28人。卫生官员说,墨西哥的非必要活动禁令将延长到4月30日,民众聚会人数限制减到只容许50人。墨西哥官方还表示,60岁以上和高风险人群应严格遵守居家建议。此前,墨西哥政府宣布,超过3000万名学生于3月21日至4月20日期间放假,学校将加强远程教育、校园消毒等措施。责任编辑:孔庆玲",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
             {"pred": "国际", "prob": 0.99915063, "logit": 10.21936}, 
             {"pred": "健康", "prob": 8.557205e-05, "logit": 0.8540586}, 
             {"pred": "财经", "prob": 8.2030325e-05, "logit": 0.81178904}, 
             {"pred": "科技", "prob": 8.076288e-05, "logit": 0.79621744}, 
             {"pred": "体育", "prob": 7.966044e-05, "logit": 0.7824724},
             ......
        ]
    }

文本内容反垃圾模型

  • 模型介绍

    PAI提供了BERT分类模型进行文本内容反垃圾,能够识别垃圾文本内容,并将其分类为正常、辱骂或恶意推广等标签。该模型的输入为单句,模型结构与新闻分类模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待识别的垃圾或非垃圾文本字符串,sequence_length对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "待识别的垃圾或非垃圾文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[5]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括正常辱骂涉黄恶意推广[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "聘手机小时工,180一天现结有手机就可以",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
            {"pred": "恶意推广", "prob": 0.9977, "logit": 6.9357}, 
            {"pred": "正常", "prob": 0.0017, "logit": 0.5571}, 
            {"pred": "涉政", "prob": 0.0003, "logit": -1.1146}, 
            {"pred": "辱骂", "prob": 0.0002, "logit": -1.7147}, 
            {"pred": "涉黄", "prob": 0.0001, "logit": -1.9154}
        ]
    }
    更多有关内容安全技术和应用,请参见阿里安全

通用情感分析模型

  • 模型介绍

    PAI提供了BERT分类模型进行通用情感分析。该模型能够识别通用文本内容,并对其进行情感分析,从而判断文本内容为正向情感或负向情感。该模型的输入为单句,模型结构与新闻分类模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待情感分析的文本字符串,sequence_length对应文本的截断长度,最大为512。具体的格式如下。
    {
        "id": "该文本的ID",
        "first_sequence": "待情感分析的文本",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括负向正向[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "前天刚写好的文案今天再看就不满意了,一百个字就改了十几遍",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
          {"pred": "负向", "prob": 0.9998781681060791, "logit": 4.049165725708008},
          {"pred": "正向", "prob": 0.00012180746125523001, "logit": -4.963781833648682}
        ]}
    }

英文情感分析模型

  • 模型介绍

    PAI提供了BERT分类模型进行英文情感分析。该模型能够识别英文文本内容,并对其进行情感分析,从而判断文本内容为差评、中评还是好评。该模型的输入为单句,模型结构与新闻分类模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待情感分析的文本字符串,sequence_length对应文本的截断长度,最大为512。具体的格式如下。
    {
        "id": "该文本的ID",
        "first_sequence": "待情感分析的文本",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括差评中评好评[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "I am happy with how the microwave heats evenly and quickly",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
          {"pred": "好评", "prob": 0.9940221, "logit": 3.6689546},
          {"pred": "中评", "prob": 0.0037104713, "logit": -1.9216459},
          {"pred": "差评", "prob": 0.002267414, "logit": -2.4141645},
        ]}
    }

电商评论情感分析模型

  • 模型介绍

    PAI提供了BERT分类模型进行电商评论的情感分析。该模型针对电商场景,识别电商文本内容,并对其进行情感分析,从而判断文本内容为正向情绪或负向情绪。该模型的输入为单句,模型结构与新闻分类模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待情感分析的评论文本,sequence_length对应文本的截断长度,最大为512。具体的格式如下。
    {
        "id": "该文本的ID",
        "first_sequence": "待情感分析的评论文本",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括负向正向[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "尺寸不标准,里料太差,太失望了!",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
          {"pred": "负向", "prob": 0.9998517036437988, "logit": 3.9285061359405518},
          {"pred": "正向", "prob": 0.00014827243285253644, "logit": -4.887804985046387}
        ]}
    }

通用情绪检测模型

  • 模型介绍

    PAI提供了BERT分类模型进行文本情绪检查。该模型能够检测通用文本内容的情绪,并将其分为高兴、生气、悲伤、惊讶、恐惧或无情绪等情绪标签。该模型的输入为单句,模型结构与新闻分类模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesequence_length字段。其中first_sequence对应的value为待检测的文本字符串,sequence_length对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "待检测文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[5]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括高兴生气悲伤惊讶恐惧无情绪[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "纪念下自己做的菜虽然我是真的很菜慢慢进步",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
          {"pred": "高兴", "prob": 0.9982577, "logit": 6.765988},
          {"pred": "无情绪", "prob": 0.0007040186, "logit": -0.4909731},
          {"pred": "生气", "prob": 0.0002968554, "logit": -1.354532},
          {"pred": "悲伤", "prob": 0.0002641379, "logit": -1.471306},
          {"pred": "恐惧", "prob": 0.0002434009, "logit": -1.553067},
          {"pred": "惊讶", "prob": 0.0002339122, "logit": -1.592832}
        ]}
    }

通用文本匹配模型

  • 模型介绍
    PAI提供了BERT匹配模型进行通用文本匹配,能够判断两段通用文本是否相似。该模型的输入为双句,模型结构如下图所示。通用文本匹配模型结构
  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesecond_sequencesequence_length字段。其中first_sequence对应的value为第一个文本字符串,second_sequence对应的value为第二个文本字符串,sequence_length对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "第一个文本字符串",
        "second_sequence": "第二个文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括相似不相似[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "我做题做了三个小时。",
        "second_sequence": "我做了三个小时的题。",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
            {"pred": "相似", "prob": 0.9999983, "logit": 7.185163}, 
            {"pred": "不相似", "prob": 1.705751e-06, "logit": -6.096340}
        ]
    }

金融文本匹配模型

  • 模型介绍

    PAI提供了BERT匹配模型进行金融领域蚂蚁金服相似问题匹配,能够判断两段金融文本是否相似。该模型的输入为双句,模型结构与通用文本匹配模型相同。

  • 输入格式
    输入数据是为JSON格式字符串,包含idfirst_sequencesecond_sequencesequence_length字段。其中first_sequence对应的value为第一个问题文本字符串,second_sequence对应的value为第二个问题文本字符串,sequence_length对应文本的截断长度(最大为512)。
    {
        "id": "该文本的ID",
        "first_sequence": "第一个问题文本字符串",
        "second_sequence": "第二个问题文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括相似不相似[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "借呗授权取消了还能再次授权借呗吗",
        "second_sequence": "借呗授权不小心关闭还能在授权吗",
        "sequence_length": 64
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
            {"pred": "相似", "prob": 0.8119994, "logit": 0.72160554}, 
            {"pred": "不相似", "prob": 0.1880006, "logit": -0.7414489}
        ]
    }

通用问答匹配模型

  • 模型介绍

    PAI提供了BERT匹配模型进行通用问题和答案匹配,即判断两段问答文本是否匹配。该模型的输入为双句,模型结构与通用文本匹配模型相同。

  • 输入格式
    输入数据为JSON格式字符串,包含idfirst_sequencesecond_sequencesequence_length字段。其中first_sequence对应的value为问题文本字符串,second_sequence对应的value为答案文本字符串,sequence_length对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "问题文本字符串",
        "second_sequence": "答案文本字符串",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    pred模型输出的标签。标签体系包括匹配不匹配[]STRING
    prob对应标签概率。[]FLOAT
    logit对应标签Logit。[]FLOAT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "牛津大学是什么时候创立的?",
        "second_sequence": "虽有记录证实牛津的教学始于1096年,但至今仍不清楚大学正式的创办日子。",
        "sequence_length": 64
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [{"pred": "匹配", "prob": 0.9896072, "logit": 2.271925},
                   {"pred": "不匹配", "prob": 0.01039288, "logit": -2.284262}]}
    }

中文基础NER模型

  • 模型介绍
    PAI提供了BERT序列标注模型进行中文基础命名实体识别(NER),能够识别文本中的人名、地名及组织名。该模型的结构如下图所示。序列标注
  • 输入格式
    输入数据为JSON格式字符串,包含idfrist_sequencesequence_length字段。其中frist_sequence对应的value为待标注的文本字符串,sequence_length对应文本的截断长度(最大为512)。
    {
      "id": "该文本的ID",
      "first_sequence": "待标注的文本字符串",
      "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    id输入的文本ID。[]STRING
    output对应标签的结果。[2]LIST
    其中output为一个列表,每个元素为一个DICT。每个元素的格式如下。
    字段描述ShapeType
    word原始文本中的人名、地名或组织名。[]STRING
    tag实体类别,取值包括PERLOCORG,分别表示人名、地名及组织名。[]STRING
    start字的开始位置。[]INT
    end字的结束位置。[]INT
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1662",
        "first_sequence": "古城保定,有一家梁连起创立的玉兰香大酒店,以其高质量的服务、物美价廉的菜肴而享誉四方。",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1662", 
        "output": [
            {"word": "保定", "tag": "LOC", "start": 2, "end": 4}, 
            {"word": "梁连起", "tag": "PER", "start": 8, "end": 11}, 
            {"word": "玉兰香大酒店", "tag": "ORG", "start": 14, "end": 20}
        ]
    }

BERT文本向量化模型

  • 模型介绍
    除了对BERT预训练完成的模型进行Finetune外,BERT生成的向量本身也很有价值。例如,将BERT作为一个特征提取器,输入一个文本序列,输出一个向量序列。还可以先对CLS输出的向量进行Dense,再将该向量作为整个句子的句向量。特征提取当用户给定一个句子S,该组件会自动将其分词为Subtoken形式S = [CLS, tok1, tok2, ..., tokN, SEP],并给出以下三种类型结果:
    • pool_output:对句子进行编码后的向量,即图中的C'
    • first_token_output:即图中的C
    • all_hidden_outputs:即图中的[C, T1, T2, ..., TN, TSEP]
  • 输入格式
    输入数据为JSON格式字符串,包含如下字段:
    • id:文本ID。
    • first_sequence:对应的value为第一个文本字符串。
    • second_sequence:对应的value为第二个文本字符串(可以为空)。
    • sequence_length:对应文本的截断长度,最大为512。
    {
        "id": "该文本的ID",
        "first_sequence": "第一个文本字符串",
        "second_sequence": "第二个文本字符串(可以为空)",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    pool_output英文逗号(,)分隔的768维向量,表示对句子进行编码后的向量,即图中的 C'。[]STRING
    first_token_output英文逗号(,)分隔的768维向量,即图中的C。[]STRING
    all_hidden_outputs768*sequence_length维向量,其中向量由英文逗号(,)分隔,序列由英文分号(;)分隔,即图中的[C, T1, T2, ..., TN, TSEP][]STRING
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1667",
        "first_sequence": "双十一花呗提额在哪",
        "second_sequence": "",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1667",
        "pool_output": "0.999340713024,...,0.836870908737",
        "first_token_output": "0.789340713024,...,0.536870908737",
        "all_hidden_outputs": "0.999340713024,...,0.836870908737;...;0.899340713024,...,0.936870908737"
    }

BERT英文文本向量化模型

  • 模型介绍

    该模型的结构与BERT文本向量化模型相同,详情请参见BERT文本向量化模型

  • 输入格式
    输入数据为JSON格式字符串,包含如下字段:
    • id:文本ID。
    • first_sequence:对应的value为第一个英文文本字符串。
    • second_sequence:对应的value为第二个英文文本字符串(可以为空)。
    • sequence_length:对应文本的截断长度,最大为512。
    {
        "id": "该文本的id",
        "first_sequence": "第一个英文文本字符串",
        "second_sequence": "第二个英文文本字符串(可以为空)",
        "sequence_length": 128
    }
  • 输出格式
    输出数据为JSON格式字符串,包含的字段如下表所示。
    字段描述ShapeType
    pool_output英文逗号(,)分隔的768维向量,表示对句子进行编码后的向量,即模型结构图中的 C'。[]STRING
    first_token_output英文逗号(,)分隔的768维向量,即模型结构图中的C。[]STRING
    all_hidden_outputs768*sequence_length维向量,其中向量由英文逗号(,)分隔,序列由英文分号(;)分隔,即模型结构图中的[C, T1, T2, ..., TN, TSEP][]STRING
  • 示例
    例如,为该模型输入如下测试数据。
    {
        "id": "1667",
        "first_sequence": "This is an example of natural language processing",
        "second_sequence": "",
        "sequence_length": 128
    }
    系统输出如下结果。
    {
        "id": "1667",
        "pool_output": "-0.044920005,...,-0.19798079",
        "first_token_output": "-0.5011729,...,-0.19798079",
        "all_hidden_outputs": "-0.5011729,...,-0.19798079;...;-0.36818486,...,0.10332998"
    }

新闻标题生成模型

  • 模型介绍

    结合自有中文语料数据,PAI提供了以Multilingual T5(mT5)为基础,使用PEGASUS训练的新闻标题生成模型,详情请参见PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization。该模型的输入为一段文本,您可以根据实际需要,自动输出新闻标题。

  • 输入格式
    输入数据为JSON数组,每个元素中仅包含content字段,表示输入的新闻内容。输入数据的格式如下所示。
    [{"content": "新闻文本字符串1"},{"content": "新闻文本字符串2"}]
  • 输出格式
    输出数据为JSON数组,返回与输入一一对应的新闻标题。数组的每个元素包含以下字段。
    字段描述类型
    predictions生成的新闻内容。STRING
    beams每条新闻候选的5个标题,标题之间使用双竖线(||)分隔。STRING
    输出格式如下所示。
    [{"predictions": "新闻1标题", "beams": "新闻1候选标题1||新闻1候选标题2||新闻1候选标题3||新闻1候选标题4||新闻1候选标题5"},
    {"predictions": "新闻2标题", "beams": "新闻2候选标题1||新闻2候选标题2||新闻2候选标题3||新闻2候选标题4||新闻2候选标题5"}]
  • 示例
    例如,为该模型输入如下测试数据。
    [
    {"content": "捷克警方21日宣布捣毁一个跨国贩毒团伙,抓获19名来自捷克和摩尔多瓦的犯罪嫌疑人。捷克反毒中心主任弗里德里赫在当天举行的记者会上说,警方在行动中缴获1.3万片兴奋剂、1.5公斤可卡因以及2.4公斤大麻。他说,这个贩毒团伙从荷兰贩运可卡因和兴奋剂,并在捷克种植大麻。这些毒品主要在捷克的布拉格和布尔诺以及周边的奥地利、摩尔多瓦等国销售。据悉,该贩毒团伙头目在捷克操纵指挥,贩毒网络覆盖面广,十分复杂。捷克警方在收网行动中逮捕了14名捷克和摩尔多瓦嫌疑人,他们最高将面临18年监禁。此外,摩尔多瓦警方在行动中逮捕5名毒贩,根据当地法律,他们可能被判入狱7年至15年。奥地利警方和荷兰警方也参与了这次反毒行动。"}
    ]
    系统输出如下结果。
    [{
      "predictions": "捷克和摩尔多瓦反毒行动扫毒", 
      "beams": "捷克和摩尔多瓦反毒行动扫毒||捷克和摩尔多瓦抓获19名贩毒嫌疑人||捷克摩尔多瓦反毒行动||捷克和摩尔多瓦反毒行动||捷克和摩尔多瓦联合反毒行动"
    }]