看起来你是新来的。登录或注册开始。
# spark.master ,,,,,,,,, yarn# spark.eventLog.enabled true# spark.eventLog.dir hdfs://namenode:8021/directory# spark.serializer org.apache.spark.serializer.KryoSerializer# spark.driver.memory 4G# spark.driver.cores 1# spark.yarn.driver.memoryOverhead 384MB# spark.yarn.am.memory 1G# spark.yarn.am.cores 1# spark.yarn.am.memoryOverhead 384MB# spark.yarn.nodemanager.resource.cpu-vcores 1# spark.yarn.nodemanager.resource.memory-mb 2048MB# spark.executor.memory 2G# spark.executor.instances 1# spark.executor.cores 1# spark.yarn.executor.memoryOverhead 384MB# spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
答案
它是什么意思:驱动程序资源请求尚未授予Spark作业。
在rapidminer的日志中,我有这个SparkRM (2): application_1544000400659_0013的Yarn应用状态:ACCEPTED
遵循yarn-site.xml。
这是spark-default.conf:
Spark资源分配策略=静态,默认配置
驱动内存= 1024MB
在应用程序的诊断,我有如下:
我希望我有一个解决方案,让事情顺利进行。