输入x (nx,m)
输出y (1,m)
参数w m维 参数b 一维
损失函数 定义为误差平方的话 容易变成非凸问题
损失函数定义在单个样本上的表现 Loss Function
成本函数 Cost Function 衡量在全体样本上的表现 J 一般可以理解为所有样本的损失函数和,是这一组参数的总成本
学习率是梯度下降时的变化率:
在每次迭代中输入x (nx,m)
输出y (1,m)
参数w m维 参数b 一维
损失函数 定义为误差平方的话 容易变成非凸问题
损失函数定义在单个样本上的表现 Loss Function
成本函数 Cost Function 衡量在全体样本上的表现 J 一般可以理解为所有样本的损失函数和,是这一组参数的总成本
学习率是梯度下降时的变化率:
在每次迭代中本文标题:深度学习与强化学习(九)二分逻辑回归
本文链接:https://www.haomeiwen.com/subject/xyvnictx.html
网友评论