提交作业后,您需要根据作业日志来检查作业是否已正常提交并执行。MaxCompute为Spark作业提供了Logview工具以及Spark Web-UI,帮助开发者进行作业诊断。

背景信息

通过Spark-submit方式(Dataworks执行Spark任务时也会产生相应日志)提交作业。
cd $SPARK_HOME
bin/spark-submit --master yarn-cluster --class  SparkPi /tmp/spark-2.x-demo/target/AliSpark-2.x-quickstart-1.0-SNAPSHOT-shaded.jar
作业提交成功后,MaxCompute会创建一个Instance,在日志中会打印Instance的Logview以及tracking URL。
19/01/05 20:36:47 INFO YarnClientImplUtil: logview url: http://logview.odps.aliyun.com/logview/?h=http://service.cn.maxcompute.aliyun.com/api&p=qn_beijing&i=xxx&token=xxx
成功标准: <看到以下输出,可能会有其他日志一并输出>
19/01/05 20:37:34 INFO Client:
   client token: N/A
   diagnostics: N/A
   ApplicationMaster host: 11.220.xxx.xxx
   ApplicationMaster RPC port: 30002
   queue: queue
   start time: 1546691807945
   final status: SUCCEEDED
   tracking URL: http://jobview.odps.aliyun.com/proxyview/jobview/?h=http://service.cn.maxcompute.aliyun-inc.com/api&p=project_name&i=xxx&t=spark&id=application_xxx&metaname=xxx&token=xxx

使用Logview工具诊断作业

logview.odps.aliyun.com开头的URL,统称为Logview。Logview是MaxCompute自研的分布式作业追踪工具,通过此工具您可以:
  • 获取该作业状态。
  • 获取该作业各节点起停调度信息。
  • 获取该作业各节点的标准输入输出日志。通常,Spark结果输出建议打印到StdOut,Spark的log4j日志则默认输出到StdErr。
  • Logview的时效性为3~5天,StdOut、StdErr在本地磁盘满了的情况下会被清理掉。
操作步骤如下:
  1. 在浏览器中打开日志输出的Logview,在浏览器中可以查看CUPID类型的任务执行的基本信息。
  2. 在Logview页面,您可以:
    • 单击Detail,可以查看作业的详情。master-0代表Spark Driver所在节点 。
    • 单击master-0并选择All Tab:查看Spark Driver节点的具体信息。 
    • 单击StdOut 查看节点的结果输出。
    • 单击StdErr 查看节点log4j日志。

使用Spark-Web-UI诊断作业

日志中打印出上述的TrackingUrl,表示您的作业已经提交到MaxCompute集群。这个TrackingUrl非常关键,它既是Spark Web-UI,也是HistoryServer的URL。通过此工具,您可以:
  • 获取原生Spark-Web-UI的所有信息。
  • 作业运行时,此页面显示作业运行的实时信息。
  • 作业运行结束后,从驱动把事件传递到HistoryServer有1~3分钟的延迟,因此作业结束,立刻打开此URL时,可能会出现一个页面,显示Application application_1560240626712_2078769635 not found.错误。请稍后重试即正常。
操作步骤如下:
  1. 在浏览器中打开此URL,可以追踪Spark作业的运行情况。
  2. 在此页面,您可以:
    • 单击environment tab确认设置的Spark参数是否全部正确。 
    • 单击executors tab查看是否有Dead节点,以及Driver的StdOut和StdErr。 
    • 单击StdOut查看节点结果输出。
    • 单击StdErr查看节点log4j日志。