美文网首页
零基础入门深度学习(1)

零基础入门深度学习(1)

作者: 青椒rose炒饭 | 来源:发表于2019-07-25 16:22 被阅读0次

原文:https://www.zybuluo.com/hanbingtao/note/433855
作者写得还是比较详细的,大家可以去看原作者写的。

神经网络模型

最左边的为输入层,中间的为隐藏层,最后边的一层为输出层。隐藏层大于2的时候就是一个深度神经网络。在深度神经网络基础上的就是深度学了。

神经网络模型
可以看做是y = f(x1,x2,...xn)的函数,线段是这些因变量之间的制约关系,因为需要满足很多组数据,所以隐藏层的参数需要不断调整。

感知器

神经网络的组成单元——神经元,也被称为感知器。下图就是一个感知器,在写代码的时候都是依据此图进行编写,尝试画几遍,看代码的时候更容易理解。

感知器
左上1 为偏置项,用于修正一些结果。
x1,x2...xn为输入项
w1,w2等为每一个输入对应的权重
感知器的输出为一个函数(此处为 weighted sum)我觉得应该可以是任何函数,当然需要保证计算方便,也要保证将输入的使用上。
激活函数,用于将神经元的输出转换为理想的输出,如感知器的输出可能是在(-∞,∞)之间,但是我们希望转换为0-1的概率,就可以使用激活函数。

使用感知器模拟and运算

x1 x2 输出结果
0 0 0
0 1 0
1 0 0
1 1 1

则针对这个and 感知器的模型应该是下面这样子的:


and感知器
  • b是偏置项,在对应的一组(x,y)下调整b,每次调整多大?由此需要引入一个学习速率rate,调整的进度就是b = rate*误差
  • 误差的计算在当前权值下计算的输出和 理论输出的差值,如对于and 运算输入都为1时(x,y) = ((1,0),0)如果感知器的输出结果是1 则误差为0-1 。
  • 权重的调整,输入* 学习速度 * 误差(weight = weight + x * rate * 误差)

and,or感知器的实现

#实现向量之间的操作
class VectorOp(object):
    #向量点乘
    def dot(x,y):
        return sum(map(lambda item:item[0] * item[1],zip(x,y)))
    #向量加法
    def add(x,y):
        data = [d1 + d2 for (d1,d2) in zip(x,y) ]
        return data

    #向量乘标量
    def mul(v,s):
        return [e * s
                for e in v
                ]
#实现一个感知器
class Perception(object):
    #初始化参数列表,偏置变量,以及激活函数,学习效率
    def __init__(self,input_num,activor,rate):
        self.activor = activor
        self.weights = [0.0 for _ in range(input_num)]
        self.bias = 0.0
        self.rate = rate
    #输出参数,以及偏置变量
    def __str__(self):
        return "\n权重列表:{0},偏置变量:{1},学习速率:{2}".\
            format(self.weights,self.bias,self.rate)

    #输入一个数据,计算感知器结果 ,使用激活函数转换为0或者1
    def predict(self,input_vect):
        temp =  VectorOp.dot(self.weights,input_vect) + self.bias
        return self.activor(temp)

    #使用输入结合训练感知器
    def train(self,input_vecs,labels,iteration):
        #迭代次数
        for i in range(iteration):
            #使用全部数据训练感知器
            for (input_vec,label) in zip(input_vecs,labels):
                #下面这个换成self.predict(input_vec) - label  结果居然不对
                delat =label - self.predict(input_vec)
                #调整参数
                self.update_weight(input_vec,label,delat);

    #调整参数
    def update_weight(self,input_vec,label,delta):
        #weights = weight + (x * rate * delta)
        self.weights = VectorOp.add(self.weights ,
                                    VectorOp.mul(input_vec,self.rate * delta)
                                    )
        self.bias += self.rate * delta

#激活函数
def f(x):
    return 1 if x > 0 else 0
#----------------------------------分割线---------------------------------------------------------------------------------
#----------------------------------分割线---------------------------------------------------------------------------------
#----------------------------------分割线---------------------------------------------------------------------------------    
p = Perception(2,f,0.1)
#and 运算的结果
# 期望的输出列表,注意要与输入一一对应
# [1,1] -> 1, [0,0] -> 0, [1,0] -> 0, [0,1] -> 0
input_vecs = [(1,1),(1,0),(0,1),(0,0)]
labels = [1,0,0,0]
p.train(input_vecs,labels,10)  #10次迭代

print(p.__str__())

print("1 and 1 = %s" % p.predict((1,1)))
print("1 and 0 = %s" % p.predict((1,0)))
print("0 and 1 = %s" % p.predict((0,1)))
print("0 and 0 = %s" % p.predict((0,0)))

print("------------下面来尝试一下or运算---------------")
input_vecs = [(1,1),(1,0),(0,1),(0,0)]
labels = [1,1,1,0]
or_p = Perception(2,f,0.1)
or_p.train(input_vecs,labels,10)
print(or_p.__str__())
print("1 or 1 = %s" % or_p.predict((1,1)))
print("1 or 0 = %s" % or_p.predict((1,0)))
print("0 or 0 = %s" % or_p.predict((0,0)))
print("0 or 1 = %s" % or_p.predict((0,1)))

运行结果:

权重列表:[0.1, 0.2],偏置变量:-0.2,学习速率:0.1
1 and 1 = 1
1 and 0 = 0
0 and 1 = 0
0 and 0 = 0
------------下面来尝试一下or运算---------------
权重列表:[0.1, 0.1],偏置变量:0.0,学习速率:0.1
1 or 1 = 1
1 or 0 = 1
0 or 0 = 0
0 or 1 = 1

那个计算函数 和 激活函数 我觉得应该是能够随便选的,但是为啥我将激活函数改为下面的样子就不正确了???


激活函数

相关文章

网友评论

      本文标题:零基础入门深度学习(1)

      本文链接:https://www.haomeiwen.com/subject/whccrctx.html