1、进入阿里云人工智能平台PAI 分布式训练(DLC)
2、创建任务
填写镜像地址
区域 | tf版本 | 资源 | 镜像地址 |
北京 | tf1.15 | cpu | mybigpai-public-registry.cn-beijing.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-0.8.1 |
上海 | tf1.15 | cpu | mybigpai-public-registry.cn-shanghai.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-0.8.1 |
杭州 | tf1.15 | cpu | mybigpai-public-registry.cn-hangzhou.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-0.8.1 |
深圳 | tf1.15 | cpu | mybigpai-public-registry.cn-shenzhen.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-0.8.1 |
北京 | tf2.10 | cpu | mybigpai-public-registry.cn-beijing.cr.aliyuncs.com/easyrec/easyrec:py38-tf2.10-0.8.1 |
上海 | tf2.10 | cpu | mybigpai-public-registry.cn-shanghai.cr.aliyuncs.com/easyrec/easyrec:py38-tf2.10-0.8.1 |
杭州 | tf2.10 | cpu | mybigpai-public-registry.cn-hangzhou.cr.aliyuncs.com/easyrec/easyrec:py38-tf2.10-0.8.1 |
深圳 | tf2.10 | cpu | mybigpai-public-registry.cn-shenzhen.cr.aliyuncs.com/easyrec/easyrec:py38-tf2.10-0.8.1 |
北京 | tf1.15 | gpu | mybigpai-public-registry.cn-beijing.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-gpu-0.8.1 |
上海 | tf1.15 | gpu | mybigpai-public-registry.cn-shanghai.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-gpu-0.8.1 |
杭州 | tf1.15 | gpu | mybigpai-public-registry.cn-hangzhou.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-gpu-0.8.1 |
深圳 | tf1.15 | gpu | mybigpai-public-registry.cn-shenzhen.cr.aliyuncs.com/easyrec/easyrec:py36-tf1.15-gpu-0.8.1 |
注意0.8.1指的是EasyRec版本。
挂载oss
将oss bucket 路径挂载在DLC上用于存储训练模型和config
任务命令
示例
cat << EOF >> odps_conf
access_id=**************
access_key=****************
end_point=http://service.cn-hangzhou.maxcompute.aliyun.com/api
EOF
export ODPS_CONFIG_FILE_PATH=odps_conf
python -m easy_rec.python.train_eval --pipeline_config_path /mnt/data/dwd_avazu_ctr_deepmodel_ext.config --continue_train --train_input_path odps://pai_online_project/tables/dwd_avazu_ctr_deepmodel_train --eval_input_path odps://pai_online_project/tables/dwd_avazu_ctr_deepmodel_test --model_dir /mnt/data/dlc_demo/ --edit_config_json='{"data_config.num_epochs":1, "data_config.input_type":"OdpsInputV3"}'
设置任务资源
根据数据量和模型大小选择适合的资源
根据MaxCompute训练的CU数量,选择核数相当的资源。或者参照下表进行估计
3、训练
配置完成点击完成就开始训练任务。
4、部署
训练模型成功,就可以将周期性调度
步骤一:创建DLC任务
登录PAI控制台,进入分布式训练任务页面并创建DLC任务。以提交PyTorch框架类型的DLC任务为例,操作详情,请参见快速提交单机PyTorch迁移学习任务。
步骤二:创建PAI DLC节点
进入数据开发页面。
登录DataWorks控制台,单击左侧导航栏的数据建模与开发 > 数据开发,在下拉框中选择对应工作空间后单击进入数据开发。
右键单击目标业务流程,选择新建节点 > 算法 > PAI DLC。
在新建节点对话框输入节点名称,单击确认,完成节点创建。后续您可在节点中进行对应任务的开发与配置。
在节点的编辑页面,从下拉列表中选择已创建的DLC任务。
任务载入后,DLC节点编辑器会根据PAI中该任务的配置生成相应节点代码,您可基于该代码编辑修改任务。更多详细内容,请参见步骤二:开发PAI DLC任务。
说明
为避免使用DataWorks周期性调度DLC节点在PAI产生较多不易区分的同名任务,建议在任务名称中增加日期时间变量,并通过调度配置为该变量赋值时间调度参数,实现任务命名增加日期时间。详情请参见步骤二:开发PAI DLC任务。
步骤三:配置任务调度
单击节点编辑区域右侧的调度配置,在调度配置面板中,包含基础属性、参数、时间属性、资源属性和调度依赖等配置项。您可以在时间属性区域配置调度周期,后续DataWorks会根据配置的调度周期自动调度运行节点任务。详情请参见任务调度属性配置概述。
说明
您需设置节点的重跑属性和依赖的上游节点,才可提交节点。
为避免使用DataWorks周期性调度DLC节点在PAI产生较多不易区分的同名任务,建议在DataWorks开发DLC任务时根据实际需要合理设置调度周期。
步骤四:调试任务代码
您可根据需要执行如下调试操作,查看任务是否符合预期。
(可选)选择运行资源组、赋值自定义参数取值。
单击工具栏的图标,在参数对话框选择调试运行需使用的调度资源组。
如您的任务代码中有使用调度参数变量,可在此处为变量赋值,用于调试。参数赋值逻辑详情请参见调度参数。
保存并运行SQL语句。
单击工具栏的图标,保存编写的SQL语句,单击图标,运行创建的SQL任务。
(可选)冒烟测试。
如您希望在开发环境进行冒烟测试,查看调度节点任务的执行是否符合预期,则可在节点提交时,或节点提交后执行冒烟测试,操作详情请参见执行冒烟测试。
步骤五:提交发布任务
节点任务配置完成后,需执行提交发布操作,提交发布后节点即会根据调度配置内容进行周期性运行。
单击工具栏中的图标,保存节点。
单击工具栏中的图标,提交节点任务。
提交时需在提交新版本对话框中输入变更描述,并根据需要选择是否在节点提交后执行代码评审。
说明
您需设置节点的重跑属性和依赖的上游节点,才可提交节点。
代码评审可对任务的代码质量进行把控,防止由于任务代码有误,未经审核直接发布上线后出现任务报错。如进行代码评审,则提交的节点代码必须通过评审人员的审核才可发布,详情请参见代码评审。
如您使用的是标准模式的工作空间,任务提交成功后,需单击节点编辑页面右上方的发布,将该任务发布至生产环境执行,操作请参见发布任务。
步骤六:查看操作日志
任务提交发布后,会基于节点的配置周期性运行,您可单击编辑界面右上角的运维,进入运维中心查看周期任务的调度运行情况。详情请参见查看并管理周期任务。