美文网首页
CS231N 学习笔记 Lecture_1&2 CNN简介 图像

CS231N 学习笔记 Lecture_1&2 CNN简介 图像

作者: best___me | 来源:发表于2018-01-04 22:53 被阅读0次

视频链接:b站 有字幕 . https://www.bilibili.com/video/av16388822/?from=search&seid=6753351402600537490

Lecture_1

主要说了一些CV的历史发展

1973年,如何识别物品,思想是复杂对象都是由简单元素组成的,例如圆柱体和圆形。

2000左右主要使用统计机器学习相关方法,例如SVM,神经网络等。

在2011年, 上图的最左侧,分层的,首先计算一些功能,接着计算本地的不变性,经过加工后输入给线性SVM

2012年,Hinton,七层卷积神经网络,AlexNet

之后的网络更深

CNN出现与1998年,贝尔实验室,用于识别数字。经过十几年流行起来的原因1.计算机的计算能力增强。2.过去没有很多有标注的数据。

Lecture_2:

Image Classification pipeline

python学习链接:http://cs231n.github.io/python-numpy-tutorial/

google cloud使用地址:http://cs231n.github.io/gce-tutorial/

1. 根据边界线----太脆弱了,效果不好。

2. 神经网络分类器

1)分类器:最近邻

数据集例子:CIFAR10,有10类,五万个训练集,一万个测试集

如何对比图片:L1 distance

时间复杂度:训练O(1),predict:O(N)

k近邻可以使得分类更加准确,边缘更加平滑。

可视化:http://vision.stanford.edu/teaching/cs231n-demos/knn/

白色部分:没有最近邻的

选择在验证集上表现最好的一组参数,按照该参数训练好模型后,在测试集上跑的结果才出现在报告或者论文中。所以只有在最后才接触测试集。

K近邻方法不适用于图像分类的原因:1. 图像的相似性用L1或L2距离不适用。2.纬数灾难,纬数越高则越需要更多的数据去覆盖空间。

2)线性分类器 Linear classifiers

最简单的模型为:参数模型,令输入图片为32x32x3,偏置项不与训练数据交互,只是提供某种数据的独立性。如果数据中喵占比例比汪大,那么就增加喵的偏置项

线性分类器为了学习一个模版,如果这个类有什么变化,分类器会想要平衡所有的不同的外表,而使用单一的模版。

线性分类器每个类只有一个模版

对于线性分类器来说很难的案例:

相关文章

网友评论

      本文标题:CS231N 学习笔记 Lecture_1&2 CNN简介 图像

      本文链接:https://www.haomeiwen.com/subject/xaddnxtx.html