关于#线性回归#的问题,如何解决?

有关于线性回归的问题,第二问第三问要怎么完成(可以的话讲解一下)?

img

你好,我是有问必答小助手,非常抱歉,本次您提出的有问必答问题,技术专家团超时未为您做出解答


本次提问扣除的有问必答次数,已经为您补发到账户,我们后续会持续优化,扩大我们的服务范围,为您带来更好地服务。

第二问,按我理解,就是给一个实际例子,去推导一下梯度下降公式?最后是条件,有一个初始值,还有一个学习率,推导过程可以参考:

第三问,如果选用逻辑回归,做多分类,其实它默认的策略就已经是one vs all了,即参数ovr,这个是多分类默认的一个参数,具体比如说调sklearn的时候,有解释如下:

在多类情况下,如果"multi_class" 选项设置为"ovr" ,则训练算法使用one vs rest (ovr )方案;如果"multi_class" 选项设置为" 多项式" ,则使用交叉熵损失。(目前," 多项式" 选项仅由"lbfgs" 、"sag" 、"saga" 和"newton-cg" 解算器支持。)

第二问,是关于梯度下降算法(Gradient descent),接触不多,只能提供参考链接:https://blog.csdn.net/m0_63794226/article/details/125289189?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-0-125289189-blog-106973134.pc_relevant_3mothn_strategy_recovery&spm=1001.2101.3001.4242.1&utm_relevant_index=3
【博文讲解详细,注解清晰】