• 一次spark任务提交参数的优化


    起因

    新接触一个spark集群,明明集群资源(core,内存)还有剩余,但是提交的任务却申请不到资源。

    分析

    环境

    spark 2.2.0
    基于yarn集群

    参数

    spark任务提交参数中最重要的几个:
    spark-submit --master yarn --driver-cores 1 --driver-memory 5G --executor-cores 2 --num-executors 16 --executor-memory 4G

    driver-cores driver端核数
    driver-memory driver端内存大小
    executor-cores 每个执行器的核数
    num-executors 此任务申请的执行器总数
    executor-memory 每个执行器的内存大小

    那么,该任务将申请多少资源呢?

    申请的执行器总内存数大小=num-executor * (executor-memory +spark.yarn.executor.memoryOverhead) = 16 * (4 + 2) = 96
    申请的总内存=执行器总内存+dirver端内存=101
    申请的总核数=num-executor*executor-core + yarn.AM(默认为1)=33
    运行的总容器(contanier) = num-executor + yarn.AM(默认为1) = 17

    所以这里还有一个关键的参数 spark.yarn.executor.memoryOverhead

    这个参数是什么意思呢?
    堆外内存,每个executor归spark 计算的内存为executor-memory,每个executor是一个单独的JVM,这个JAVA虚拟机本向在的内存大小即为spark.yarn.executor.memoryOverhead,不归spark本身管理。在spark集群中配置。也可在代码中指定
    spark.set("spark.yarn.executor.memoryOverhead", 1)

    这部份实际上是存放spark代码本身的究竟,在executor-memory内存不足的时候也能应应急顶上。

    问题所在

    假设一个节点16G的内存,每个executor-memory=4,理想情况下4x4=16,那么该节点可以分配出4个节点供spark任务计算所用。
    1.但应考虑到spark.yarn.executor.memoryOverhead.
    如果spark.yarn.executor.memoryOverhead=2,那么每个executor所需申请的资源为4+2=6G,那么该节点只能分配2个节点,剩余16-6x2=4G的内存,无法使用。

    如果一个集群共100个节点,用户将在yarn集群主界面看到,集群内存剩余400G,但一直无法申请到资源。

    2.core也是一样的道理。

    很多同学容易忽略spark.yarn.executor.memoryOverhead此参数,然后陷入怀疑,怎么申请的资源对不上,也容易陷入优化的误区。

    优化结果

    最终优化结果,将spark.yarn.executor.memoryOverhead调小,并根据node节点资源合理优化executor-memory,executor-core大小,将之前经常1.6T的内存占比,降到1.1左右。并能较快申请到资源。

  • 相关阅读:
    暑假加餐|有钱人和你想的不一样(第13天)+基于多目标粒子群算法的微电网优化调度(Matlab代码实现)
    YBTOJ 状压dp合集
    Spring Data JPA之Spring boot整合JPA进行CRUD
    【记录】使用Python读取Tiff图像的几种方法
    基于Jeecgboot前后端分离的平台后端系统采用jenkins发布
    移动WEB开发之rem布局--苏宁首页案例制作(技术方案1)
    python使用unittest进行单元测试
    分子数据的获取、解析与结构绘制(RDKit)
    3.Vue-在Vue框架中搭建路由
    ntp服务器时钟同步
  • 原文地址:https://www.cnblogs.com/eryuan/p/15480282.html