聚类 之前的课程中我们学习的都是监督学习相关的算法,现在来开始看非监督学习。非监督学习相对于监督非学习来看,其使用...[作者空间]
优化目标 之前的课程有学习过Logistic回归的假设函数:其图像如下: 从图像可以看出,如果的话,那么我们希望,...[作者空间]
确定执行的优先级 我们已经学习过一些机器学习的算法,那么如何设计一个机器学习系统呢,课程中举了一个垃圾邮件分类器的...[作者空间]
评估假设 我们之前已经学习过一些机器学习的算法,现在我们来谈谈如何评估算法学习得到的假设。当发现预测的结果和实际的...[作者空间]
直观感受反向传播的概念 上篇文章讲述了神经网络的反向传播算法的基本概念,现在来详细的对此算法进行一些讲解。回忆一下...[作者空间]
代价函数 在神经网络中,我们需要定义一些新的参数来表示代价函数。 L = total number of laye...[作者空间]
本文将会介绍一种叫“神经网络”(Neural Network)的机器学习算法。 非线性假设 我们之前已经学习过线性...[作者空间]
概念 假设我们有一组数据集如下图所示: 左边的图中,我们假设,与数据集进行比较发现此函数和数据的拟合度并不是很高,...[作者空间]
回归函数 在逻辑回归模型中我们不能再像之前的线性回归一样使用相同的代价函数,否则会使得输出的结果图像呈现波浪状,也...[作者空间]
之前的文章中我们讨论过关于线性回归的问题,现在我们来学习一下,当预测的变量y为离散值时候的分类问题。 分类 下面给...[作者空间]
在前面的学习中,我们一直使用的线性回归算法是梯度下降法,即为了最小化代价函数,我们需要通过迭代很多步来收敛到全局最...[作者空间]
之前的文章中已经讲述了简单的一元线性回归的基础知识,现在我们来继续讨论多元线性回归。本文针对吴恩达机器学习第二周课...[作者空间]
通过前面的文章我们现在已经有了假设函数并知道如何度量这个函数与数据的符合程度,即代价函数取得最小值。那么现在要做的...[作者空间]
主要讲述一元线性回归算法的主要内容,因此默认对监督学习的定义有所了解,若不清楚可查看吴恩达机器学习第一讲或自行Go...[作者空间]