计算引擎作业提交成功后,您可以通过SparkUI界面或者HDFS Shell工具查看计算引擎作业运行日志。
通过SparkUI界面查看计算引擎作业运行日志
通过SparkUI界面查看计算引擎作业运行日志,需要查看的计算引擎作业状态为运行中。
通过HDFS Shell工具查看计算引擎作业运行日志
计算引擎作业的运行日志会被系统同步并存储至底层的文件引擎中,如果需要查看的计算引擎作业中断,您可以开通云原生多模数据库Lindorm文件引擎,并使用HDFS Shell工具查看作业的运行日志。
注意
- 建议您在提交JAR作业时,在Main函数开始时初始化SparkSession对象,避免部分异常运行日志无法同步至文件引擎中。
- 如果Lindorm实例的计算引擎服务规模较大,计算引擎作业运行日志可能给DFS造成较大的压力。您可以在计算引擎作业启动参数中配置spark.dfsLog.executor.enabled=false,该参数指定Executor日志不保存至DFS,而计算引擎作业Driver运行日志的收集不会受到影响。