通过梯度下降法寻找最优解,可是teacher在讲的时候直接就把y的方程式就假设出来了,可是这个方法不是本来就要我求这两个系数吗?我不理解那求出来theta还有什么用了?如果在真的导入数据的时候y方程式里的4,5是怎么求出来的?还有就是不直接用sklearn就直接出来了,为什么还要用梯度下降算法
import numpy as np
X = 2 * np.random.rand(100, 1)
y = 4 + 5 * X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]
n_epoch = 10000
m = 100
t0, t1 = 5, 500
# 定义一个函数来调整学习率
def learning_rate_schedule(t):
return t0 / (t + t1)
theta = np.random.rand(2, 1)
for epoch in range(n_epoch):
# 在双层for循环之间,在每个轮次分批次迭代之前打乱数据索引顺序
arr = np.arange(len(X_b))
np.random.shuffle(arr)
X_b = X_b[arr]
y = y[arr]
for i in range(m):
xi = X_b[i:i + 1]
yi = y[i:i + 1]
gradients = xi.T.dot(xi.dot(theta) - yi)
learning_rate = learning_rate_schedule(epoch * m + i)
theta = theta - learning_rate * gradients
print("theta", theta)
迭代类算法一定要有一个开始的值才能进行
sklearn内部也都是这么做的,基本上就算调包也是包里面帮你设置好了初始的值