我论文中简单的把机器学习分类叙述了一下,被批评说我的几种分类含有互相包含的关系,我该怎么专业地把以下几个方面分类呢,或者说,我该把哪几种放在同一个分类呢?
1、XGBoost
2、随机森林
3、梯度下降树GBDT
4、支持向量机
5、神经网络
6、KNN
GBDT和XGBoost都是决策树分类的,机器学习分类算法应该按照下面的链接来分类,总共有7种,而且你说的神经网络算深度学习了
这些都是典型的算法,按分类还是看这里https://zhuanlan.zhihu.com/p/419404240
GBDT和XGBoost都是组合决策树模型,其中GBDT在函数空间中利用梯度下降法进行优化,XGBoost在函数空间中用牛顿法进行优化
这两个应该是同一分类,其他的各自一类没有问题
按分类器来分,随机森林(决策树的bagging思想)、支持向量机、神经网络、K近邻是一个范畴,而GBDT和XGBoost都是随机森林的算法优化,跟分类器不再一个范畴。
实际上,也可以按照特征提取的方式对分类器再进行分类,比如随机森林、支持向量机、KNN等都是传统的机器学习模型(ML),采用的特征提取和分类的两步走的模式;而神经网络比如卷积神经网络CNN、循环神经网络RNN,这种模型属于深度学习模型(DL),模型本身就是特征提取和分类器的组合。然后再写论文里面用到的随机森林的两种算法优化GBDT和XGBoost。
树模型
1、XGBoost
2、随机森林
3、梯度下降树GBDT
机器学习常见模型
1、XGBoost
2、随机森林
3、梯度下降树GBDT
4、支持向量机
5、KNN
集成算法:
1、XGBoost
2、随机森林
3、梯度下降树GBDT
常见分类算法:
1、XGBoost
2、随机森林
3、梯度下降树GBDT
4、支持向量机
5、神经网络
6、KNN