sklearn逻辑斯蒂回归,softmax多分类

img


逻辑斯蒂回归,应用sofamax多分类,model.fit(x_train, y_train) 不知道为什么会报错。
数据如下:

img


个人感觉不是数据的问题

solver 指定下 newton-cg 或者 lbfgs,默认 liblinear不支持

【以下回答由 GPT 生成】

回答:

Sklearn的逻辑回归模型并不直接支持Softmax多分类,而是用于二分类问题。要在Sklearn中实现Softmax多分类,可以使用sklearn中的OneVsRestClassifier类或MultiOutputClassifier类来进行多分类。

首先,导入所需的库和模型:

from sklearn.linear_model import LogisticRegression
from sklearn.multiclass import OneVsRestClassifier

然后,使用OneVsRestClassifier对逻辑回归模型进行包装,以实现Softmax多分类。以下是一个例子:

# 实例化逻辑回归模型
base_model = LogisticRegression()

# 实例化OneVsRestClassifier并传入逻辑回归模型
model = OneVsRestClassifier(base_model)

# 训练模型
model.fit(x_train, y_train)

在上述代码中,我们首先实例化了LogisticRegression作为基模型,然后将其传递给OneVsRestClassifier类的构造函数,形成了多分类模型。接下来,我们使用fit函数来训练模型。

这样,您应该能够成功地使用Sklearn的LogisticRegression进行Softmax多分类。如果您遇到任何错误或问题,请提供详细的错误信息以便进一步调试。


如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^