如何理解逻辑回归离散化后引入非线性关系

没懂,离散化后函数不还是相当于 Y=ax1+bx2...这种吗

逻辑回归是一种线性分类模型,它的决策边界是一个超平面。当我们对连续特征进行离散化后,就相当于引入了非线性关系。这是因为离散化后,特征的取值只能是有限个,而不再是连续的。这样,我们就可以将离散化后的特征看作是一组二元特征,每个特征只有两种取值,即0和1。这样,我们就可以使用逻辑回归模型对离散化后的特征进行建模,从而得到一个非线性的决策边界。

举个例子,假设我们有一个连续特征x,我们将其离散化为三个区间:[0, 1), [1, 2), [2, 3]。那么,我们就可以将x看作是三个二元特征x1、x2、x3,分别表示x落在[0, 1)、[1, 2)、[2, 3]这三个区间内的情况。这样,我们就可以使用逻辑回归模型对x1、x2、x3进行建模,从而得到一个非线性的决策边界。
总之,离散化后的特征引入了非线性关系,可以使逻辑回归模型更加灵活,能够处理更加复杂的分类问题。