线性回归是机器学习入门知识,应用十分广泛。
线性回归利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的,其表达形式为 𝑦=𝑤𝑥+𝑏+𝑒 , 𝑒 为误差服从均值为0的正态分布。首先让我们来确认线性回归的损失函数:
1591246478(1).png
import torch as t
%matplotlib inline
from matplotlib import pyplot as plt
from IPython import display
# 设置随机数种子,保证在不同电脑上运行时下面的输出一致
t.manual_seed(1000)
def get_fake_data(batch_size=8):
''' 产生随机数据:y=x*2+3,加上了一些噪声'''
x = t.rand(batch_size, 1) * 20
y = x * 2 + (1 + t.randn(batch_size, 1))*3
return x, y···
# 来看看产生的x-y分布
x, y = get_fake_data()
plt.scatter(x.squeeze().numpy(), y.squeeze().numpy())
1591246587(1).jpg
# 随机初始化参数
w = t.rand(1, 1)
b = t.zeros(1, 1)
lr =0.001 # 学习率
for ii in range(20000):
x, y = get_fake_data()
# forward:计算loss
y_pred = x.mm(w) + b.expand_as(y) # x@W等价于x.mm(w);for python3 only
loss = 0.5 * (y_pred - y) ** 2 # 均方误差
loss = loss.sum()
# backward:手动计算梯度
dloss = 1
dy_pred = dloss * (y_pred - y)
dw = x.t().mm(dy_pred)
db = dy_pred.sum()
# 更新参数
w.sub_(lr * dw)
b.sub_(lr * db)
if ii%1000 ==0:
# 画图
display.clear_output(wait=True)
x = t.arange(0, 20).view(-1, 1)
x = t.tensor(x, dtype=t.float32)
y = x.mm(w) + b.expand_as(x)
plt.plot(x.numpy(), y.numpy()) # predicted
x2, y2 = get_fake_data(batch_size=20)
plt.scatter(x2.numpy(), y2.numpy()) # true data
plt.xlim(0, 20)
plt.ylim(0, 41)
plt.show()
plt.pause(0.5)
print(w.squeeze().item(), b.squeeze().item())
1591246641(1).jpg
最后结果已经基本学出w=2、b=3,已经实现较好的拟合。
参考书籍:深度学习框架 pytorch入门与实践 陈云
网友评论