进入8088端口可以查看日志信息,如下图:

根据applicationID在本地直接查看
yarn logs -applicationId appID
#appID是实际的spark任务的id
生产环境下,spark submit命令经常会放在shell中去调起执行,这种情况下要怎样才能在shell中生成spark日志信息,写到具体的路径下呢?
我们可以将shell中的submit命令作如下的处理:
appId=`
spark-submit \
--class cn.com.Test \
--master yarn \
--deploy-mode cluster \
/jarPath/test.jar 2>&1 | tee /dev/tty | grep -i "Submitting application" | grep -o application_.*[0-9] `
yarn logs -applicationId $appid > /logPath/${appid}.log
上述的submit命令执行结束后,会将spark运行的程序写入需要的log路径下,日志名为appId.log