有大佬知道task计算的有问题吗,为什么spark ui里的task的资源比我算的还要多啊?

spark版本:2.1.0,
executor-memroy:9g,
num-executors:100,
executors-cores:3,
dirver-memory:6g,
堆外内存1g
每个task能处理的最大内存是:
堆内execuot内存=(executor-memory*1024-300)*0.6*0.5
堆外execuot内存=1g*1024/2
task最大内存=(堆内execuot内存+堆外execuot内存)/executor-cores
结果为:1062mb

 

你好,我是有问必答小助手,非常抱歉,本次您提出的有问必答问题,技术专家团超时未为您做出解答

本次提问扣除的有问必答次数,将会以问答VIP体验卡(1次有问必答机会、商城购买实体图书享受95折优惠)的形式为您补发到账户。

​​​​因为有问必答VIP体验卡有效期仅有1天,您在需要使用的时候【私信】联系我,我会为您补发。