在做分类问题和回归问题时,用随机森林和xgboost,一般对随机森林和xgboost的哪些参数进行调优,会得到很好的效果呢?

在做分类问题和回归问题时,用随机森林和xgboost,一般对随机森林和xgboost的哪些参数进行调优,会得到很好预测的效果呢?


随机森林调参_*Snowgrass*的博客-CSDN博客_随机森林调参 在scikit-learn中,RandomForest的分类器是RandomForestClassifier,回归器是RandomForestRegressor,需要调参的参数包括两部分,第一部分是Bagging框架的参数,第二部分是CART决策树的参数。一、Bagging框架的参数:1.n_estimators:也就是弱学习器的最大迭代次数,或者说最大的弱学习器的个数,默认是10。一般来说n_estimators太小,容易欠拟合,n_estimators太大,又容易过拟合,一般选... https://blog.csdn.net/qq_36535820/article/details/119801268

调参可以看链接,具体怎么调整才回好,只能实践,有些数据集可以调整树深度就行,有些就不行,不然为啥机器学习和深度学习叫炼丹,就是调参不一样,可能结果也不同,其中有些玄学,数学也不好解释,只能从结果推论在这个数据集上面这个参数改动下效果好很多。

随机森林的森林数量

随机森林我用的少,上面的答主分享的链接参考即可。xgboost亲测,树的深度、随机采样率,学习率影响较为明显。当然,一切还需要根据样本情况具体分析,望采纳,谢谢

使用深度学习