apache-spark - Spark集群模式下如何处理日志
问题描述
我是 Spark 的新手。我不知道如何在 Spark 集群模式下处理日志。我在 Spark 脚本中添加了以下属性。
spark.conf.set("yarn.log-aggregation-enable","true")
spark.conf.set("yarn.nodemanager.log-dirs","HDFS_LOCATION")
spark.conf.set("yarn.nodemanager.remote-app-log-dir","HDFS_LOCATION")
spark.conf.set("spark.eventLog.enabled", "true")
spark.conf.set("spark.eventLog.dir", "HDFS_LOCATION")
spark.conf.set("spark.scheduler.mode", "FAIR")
在运行 spark-submit 时,我添加了以下选项:
--driver-java-options "-Dlog4j.debug=true -Dlog4j.configuration=$LOCATION/log4j.properties"
但我得到以下异常:
Exception in thread "main" org.apache.spark.SparkException: Application
而且我无法在 HDFS 日志位置找到任何日志。
请帮忙,因为我被代码卡住了。
解决方案
推荐阅读
- javascript - How can I make a JS string have newlines instead of showing \n?
- jspdf - Achieving break pages with jsPDF / html2canvas and the .html method
- swift - Swift NWConnection - Receive failed with error "No message available on STREAM"
- c++ - Set /SUBSYSTEM:WINDOWS on executable target
- angular - ControlValueAccessor with FormArray in Angular
- python - 删除任何具有空列表的集群
- r - 将希腊符号添加到图例 ggplot(不止一个)
- java - 用Java在屏幕上获取像素的快速方法
- python - 尝试在本地主机中从 Django 中的 POSTGRESQL 获取 JSON 数据
- c++ - 未找到 .h 文件中定义的函数的标识符