全部产品
阿里云办公

如何提交作业

更新时间:2018-10-27 17:55:05

1. 批量计算提交作业的 4 种典型方法

A) 使用命令行

  1. bcs sub "python test.py" -p ./test.py

该命令会将 test.py 文件打包成 worker.tar.gz 并上传到指定位置,然后再提交作业运行。 bcs命令需要先安装 batchcompute-cli 工具 才能使用。

bcs sub 命令格式为 bcs sub <commandLine> [job_name] [options],更多参数详情参考bcs sub -h命令。

B) 使用控制台提交作业

i. 将 test.py 打包上传到 OSS

在 test.py 所在目录运行下面的命令:

  1. tar -czf worker.tar.gz test.py # 将 test.py 打包到 worker.tar.gz

使用 OSS 控制台,上传 worker.tar.gz。

如果还没有开通 OSS,请先开通

还需要创建 Bucket,假设创建了 Bucket 名称为 mybucket

然后在这个 Bucket 下创建一个目录: test

假设您上传到了 mybucket 桶下的 test 目录下,则 OSS 路径表示为: oss://mybucket/test/worker.tar.gz

ii. 使用控制台提交作业

打开 提交作业 页面。

按照表单提示,填写作业名称为 first_job

第1步

拖拽一个任务,按照下图填写表单, 指定 ECS 镜像 ID

第2步

点击下面的”提交作业”按钮, 即可提交成功;提交成功后,自动跳转到作业列表页面,您可以在这里看到你提交的作业状态;等待片刻后作业运行完成,即可查看结果。

C) 使用 Python SDK 提交作业

i. 将 test.py 打包上传到云端 OSS

同上一节。

ii. 提交作业

  1. from batchcompute import Client, ClientError
  2. from batchcompute import CN_SHENZHEN as REGION
  3. ACCESS_KEY_ID = 'your_access_key_id' #需要配置
  4. ACCESS_KEY_SECRET = 'your_access_key_secret' #需要配置
  5. job_desc = {
  6. "Name": "my_job_name",
  7. "Description": "hello test",
  8. "JobFailOnInstanceFail": true,
  9. "Priority": 0,
  10. "Type": "DAG",
  11. "DAG": {
  12. "Tasks": {
  13. "test": {
  14. "InstanceCount": 1,
  15. "MaxRetryCount": 0,
  16. "Parameters": {
  17. "Command": {
  18. "CommandLine": "python test.py",
  19. "PackagePath": "oss://mybucket/test/worker.tar.gz"
  20. },
  21. "StderrRedirectPath": "oss://mybucket/test/logs/",
  22. "StdoutRedirectPath": "oss://mybucket/test/logs/"
  23. },
  24. "Timeout": 21600,
  25. "AutoCluster": {
  26. "InstanceType": "ecs.sn1.medium",
  27. "ImageId": "img-ubuntu"
  28. }
  29. }
  30. },
  31. "Dependencies": {}
  32. }
  33. }
  34. client = Client(REGION, ACCESS_KEY_ID, ACCESS_KEY_SECRET)
  35. result = client.create_job(job_desc)
  36. job_id = result.Id
  37. ....

iii. 更多关于Python SDK内容

请参考 Python SDK

D) 使用 Java SDK 提交作业

i. 将 test.py 打包上传到云端 OSS

同上一节。

ii. 提交作业

  1. import com.aliyuncs.batchcompute.main.v20151111.*;
  2. import com.aliyuncs.batchcompute.model.v20151111.*;
  3. import com.aliyuncs.batchcompute.pojo.v20151111.*;
  4. import com.aliyuncs.exceptions.ClientException;
  5. public class SubmitJob{
  6. String REGION = "cn-shenzhen";
  7. String ACCESS_KEY_ID = ""; //需要配置
  8. String ACCESS_KEY_SECRET = ""; //需要配置
  9. public static void main(String[] args) throws ClientException{
  10. JobDescription desc = new SubmitJob().getJobDesc();
  11. BatchCompute client = new BatchComputeClient(REGION, ACCESS_KEY_ID, ACCESS_KEY_SECRET);
  12. CreateJobResponse res = client.createJob(desc);
  13. String jobId = res.getJobId();
  14. //...
  15. }
  16. private JobDescription getJobDesc() {
  17. JobDescription desc = new JobDescription();
  18. desc.setName("testJob");
  19. desc.setPriority(1);
  20. desc.setDescription("JAVA SDK TEST");
  21. desc.setType("DAG");
  22. desc.setJobFailOnInstanceFail(true);
  23. DAG dag = new DAG();
  24. dag.addTask(getTaskDesc());
  25. desc.setDag(dag);
  26. return desc;
  27. }
  28. private TaskDescription getTaskDesc() {
  29. TaskDescription task = new TaskDescription();
  30. task.setClusterId(gClusterId);
  31. task.setInstanceCount(1);
  32. task.setMaxRetryCount(0);
  33. task.setTaskName("test");
  34. task.setTimeout(10000);
  35. AutoCluster autoCluster = new AutoCluster();
  36. autoCluster.setImageId("img-ubuntu");
  37. autoCluster.setInstanceType("ecs.sn1.medium");
  38. // autoCluster.setResourceType("OnDemand");
  39. task.setAutoCluster(autoCluster);
  40. Parameters parameters = new Parameters();
  41. Command cmd = new Command();
  42. cmd.setCommandLine("python test.py");
  43. // cmd.addEnvVars("a", "b");
  44. cmd.setPackagePath("oss://mybucket/test/worker.tar.gz");
  45. parameters.setCommand(cmd);
  46. parameters.setStderrRedirectPath("oss://mybucket/test/logs/");
  47. parameters.setStdoutRedirectPath("oss://mybucket/test/logs/");
  48. // InputMappingConfig input = new InputMappingConfig();
  49. // input.setLocale("GBK");
  50. // input.setLock(true);
  51. // parameters.setInputMappingConfig(input);
  52. task.setParameters(parameters);
  53. // task.addInputMapping("oss://my-bucket/disk1/", "/home/admin/disk1/");
  54. // task.addOutputtMapping("/home/admin/disk2/", "oss://my-bucket/disk2/");
  55. // task.addLogMapping( "/home/admin/a.log","oss://my-bucket/a.log");
  56. return task;
  57. }
  58. }

iii. 更多关于 Java SDK 内容

请参考 Java SDK

2 批量计算中的 CommandLine

CommandLine 不等同于 SHELL,仅支持”程序+参数”方式,比如”python test.py”或”sh test.sh”。

如果你想要执行 SHELL,可以使用”/bin/bash -c ‘cd /home/xx/ && python a.py’” 或者将 SHELL 写到一个 sh 脚本中如:test.sh, 然后用”sh test.sh”执行。

CommandLine 具体位置:

  • 命令行工具中 bcs sub <cmd> [job_name] [options] 的 cmd。
  • 使用 java sdk 时 cmd.setCommandLine(cmd)中的 cmd。
  • python sdk 中的 taskName.Parameters.Command.CommandLine