elm极限学习机的w b算是超参数还是参数?如何用智能算法优化?
超参数,要训练优化的。参数是预先就设定好了的,没有优化目标。
在极限学习机(Extreme Learning Machine, ELM)算法中,输入数据与隐层之间的权重 $W$ 和偏置 $b$ 是需要训练的参数。这些参数的确定是通过最小化训练误差来实现的,因此它们是需要通过优化算法(比如梯度下降)来求解的。
在 ELM 算法中,除了 $W$ 和 $b$ 之外,还有一些超参数,如隐层神经元数量、激活函数类型等。这些超参数的设置可以对模型的性能产生重要影响,但它们并不是需要通过训练来确定的,而是需要手动设置的。
通常,可以使用智能算法来优化 ELM 模型的超参数,例如遗传算法、粒子群算法、蚁群算法等。这些算法可以在超参数空间中搜索最优的超参数组合,从而提高模型的性能。一般来说,需要注意超参数的数量和搜索空间的大小,以免搜索成本过高或出现维数灾难等问题。