有关于梯度下降法和sklearn的最优解问题

通过梯度下降法寻找最优解,可是teacher在讲的时候直接就把y的方程式就假设出来了,可是这个方法不是本来就要我求这两个系数吗?我不理解那求出来theta还有什么用了?如果在真的导入数据的时候y方程式里的4,5是怎么求出来的?还有就是不直接用sklearn就直接出来了,为什么还要用梯度下降算法


import numpy as np

X = 2 * np.random.rand(100, 1)
y = 4 + 5 * X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]

n_epoch = 10000
m = 100
t0, t1 = 5, 500


# 定义一个函数来调整学习率
def learning_rate_schedule(t):
    return t0 / (t + t1)


theta = np.random.rand(2, 1)
for epoch in range(n_epoch):
    # 在双层for循环之间,在每个轮次分批次迭代之前打乱数据索引顺序
    arr = np.arange(len(X_b))
    np.random.shuffle(arr)
    X_b = X_b[arr]
    y = y[arr]
    for i in range(m):
        xi = X_b[i:i + 1]
        yi = y[i:i + 1]
        gradients = xi.T.dot(xi.dot(theta) - yi)
        learning_rate = learning_rate_schedule(epoch * m + i)
        theta = theta - learning_rate * gradients
print("theta", theta)

迭代类算法一定要有一个开始的值才能进行
sklearn内部也都是这么做的,基本上就算调包也是包里面帮你设置好了初始的值

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^