理论部分:



小技巧,把偏置B当作一个输入X0来编程




代码部分:
#输入数据 //小技巧其中X数组中的第一个 1 表示偏置b
X=np.array([[1,3,3],
[1,4,3],
[1,1,1]])
#标签
Y=np.array([1,1,-1])
#权值初始化,1行3列,取值范围-1到1
W=(np.random.random(3)-0.5)*2
print(W)
#定义学习率
lr=0.11
#计算迭代次数变量
n=0
#神经网络的输出
O=0
def update():
global X,Y,W,lr,n
n+=1
O=np.sign(np.dot(X,W.T))
W_C=lr*(Y-O.T).dot(X)/int(X.shape[0])#除以会缩小权值改变
W=W+W_C
for _ in range(100):
update()#更新权值
print(W)#打印当前权值
print(n)#打印迭代次数
O=np.sign(np.dot(X,W.T))#计算当前输出
if(O==Y.T).all():#如果实际输出等于期望输出,模型收敛,循环结束
print('Finished')
print('epoch',n)
break
#正样本
x1=[3,4]
y1=[3,3]
#负样本
x2=[1]
y2=[1]
#计算分界线斜率以及截距
k=-W[1]/W[2]
d=-W[0]/W[2]
print('k=',k)
print('d=',d)
xdata=np.linspace(0,5)
plt.figure()
plt.plot(xdata,xdata*k+d,'r')
plt.plot(x1,y1,'bo')
plt.plot(x2,y2,'yo')
plt.show()
结果(初始化矩阵不同则迭代结果也会不同)
初始矩阵 :[ 0.07628016 -0.53674809 -0.38678573]
迭代结果
[ 0.22294683 -0.02341476 0.05321427]
1
[ 0.14961349 -0.09674809 -0.02011907]
2
[ 0.22294683 0.34325191 0.3465476 ]
3
[ 0.14961349 0.26991858 0.27321427]
4
[ 0.07628016 0.19658524 0.19988093]
5
[ 0.00294683 0.12325191 0.1265476 ]
6
[-0.07038651 0.04991858 0.05321427]
7
[-0.14371984 -0.02341476 -0.02011907]
8
[ 0.00294683 0.48991858 0.41988093]
9
[-0.07038651 0.41658524 0.3465476 ]
10
[-0.14371984 0.34325191 0.27321427]
11
[-0.21705317 0.26991858 0.19988093]
12
[-0.29038651 0.19658524 0.1265476 ]
13
[-0.36371984 0.12325191 0.05321427]
14
Finished
epoch 14
k= -2.31614406271
d= 6.83500612549
网友评论