relu激活函数导致double溢出

为什么都说relu函数可以防止梯度爆炸,反向传播求偏导存在误差累加和累乘的情况,如果relu为正求导为1,然后累加,多次后不就会导致权重更新过剧烈吗