100天写机器学习代码
Siraj Raval提出的100天机器学习编码
从这里获取数据集
数据预处理| 第1天
从这里查看代码。
![](https://img.haomeiwen.com/i910914/ef62bb92b73dfd1e.jpg)
简单线性回归| 第2天
从这里查看代码。
![](https://img.haomeiwen.com/i910914/3b1fc7fffa20e6ad.jpg)
多元线性回归| 第3天
从这里查看代码。
![](https://img.haomeiwen.com/i910914/7aefa37fe3028551.jpg)
Logistic回归| 第4天
![](https://img.haomeiwen.com/i910914/79fe098562735a6f.jpg)
Logistic回归| 第5天
今天进入#100DaysOfMLCode我深入研究了实际Logistic回归的深度,以及它背后的数学运算是什么。了解如何计算成本函数,以及如何将梯度下降算法应用于成本函数以最小化预测误差。
由于时间较短,我现在将在隔天发布信息图。此外,如果有人想帮助我在代码文档中,并已经在该领域的一些经验,并知道Markdown for github请在LinkedIn上与我联系:)。
实施Logistic回归| 第6天
在这里查看代码
K最近的邻居| 第7天
![](https://img.haomeiwen.com/i910914/505db35e670825a7.jpg)
Logistic回归背后的数学| 第8天
#100DaysOfMLCode为了清楚我对逻辑回归的见解,我在互联网上搜索了一些资源或文章,我在Saishruthi Swaminathan 看到了这篇文章(https://towardsdatascience.com/logistic-regression-detailed-overview-46c4da4303bc)。
它给出了Logistic回归的详细描述。检查一下。
支持向量机| 第9天
直观了解SVM是什么以及如何使用它来解决分类问题。
SVM和KNN | 第10天
了解更多关于SVM如何工作和实现knn算法的知识。
实施K-NN | 第11天
实现了K-NN算法进行分类。#100DaysOfMLCode支持向量机信息图表中途完成将在明天更新。
支持向量机| 第12天
![](https://img.haomeiwen.com/i910914/b30e1173a54c5a63.jpg)
朴素贝叶斯分类器| 第13天
继续#100DaysOfMLCode今天我通过Naive Bayes分类器。我也在使用scikit-learn在python中实现SVM。将很快更新代码。
SVM的实现| 第14天
今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器,我们用它来完成这个任务。将在下一次实现时使用kernel-trick。在这里查看代码。
朴素贝叶斯分类器和黑盒机学习| 第15天
了解不同类型的朴素贝叶斯分类也开始了彭博社的讲座。播放列表中的第一个是Black Box Machine Learning。它给出了关于预测函数,特征提取,学习算法,性能评估,交叉验证,样本偏差,非平稳性,过度拟合和超参数调整的整体视图。
使用Kernel Trick实现SVM 第16天
使用Scikit-Learn库实现了SVM算法以及内核函数,该函数将我们的数据点映射到更高维度以找到最佳超平面。
开始深入学习Coursera的专业化| 第17天
在一天内完成整个第1周和第2周。学习Logistic回归为神经网络。
课程深度学习专业化| 第18天
完成深度学习专业课程1。在python中实现了神经网络。
学习问题,Yaser Abu-Mostafa教授| 第19天
由Yaser Abu-Mostafa教授开始的加州理工学院机器学习课程 - 第156讲第1讲。这基本上是对即将到来的讲座的一种介绍。他还解释了Perceptron算法。
开始深度学习专业课程2 | 第20天
完成了改进深度神经网络的第1周:超参数调整,正则化和优化。
网页搜罗| 第21天
观看了一些关于如何使用Beautiful Soup进行网页划分的教程,以便收集用于构建模型的数据。
学习可行吗?| 第22天
加州理工学院机器学习课程18的第2讲 - 由Yaser Abu-Mostafa教授主讲的CS 156。了解Hoeffding不平等。
决策树| 第23天
![](https://img.haomeiwen.com/i910914/85d72ce8f994d400.jpg)
统计学习理论导论| 第24天
Bloomberg ML课程的第3课介绍了一些核心概念,如输入空间,动作空间,结果空间,预测函数,损失函数和假设空间。
实施决策树| 第25天
跳到刷线性代数| 第26天
在youtube 3Blue1Brown上找到了一个惊人的频道。它有一个名为Essence of Linear Algebra的播放列表。通过完成4个视频开始,完整地概述了矢量,线性组合,跨度,基矢量,线性变换和矩阵乘法。
跳到刷线性代数| 第27天
继续完成播放列表下一个4视频讨论主题3D转换,行列式,逆矩阵,列空间,空间和非平方矩阵。
跳到刷线性代数| 第28天
在3Blue1Brown的播放列表中完成了另外3个来自线性代数本质的视频。涉及的主题是Dot Product和Cross Product。
跳到刷线性代数| 第29天
今天完成整个播放列表,12 - 14的视频。真的是一个令人惊叹的播放列表,可以刷新线性代数的概念。涵盖的主题是基础的变化,特征向量和特征值,以及抽象向量空间。
微积分的本质| 第30天
通过3blue1brown完成播放列表 - 线性代数的本质由youtube弹出关于同一频道3Blue1Brown再次播放一系列视频的建议。由于之前关于线性代数的系列已经给我留下了深刻的印象。完成了大约5个关于主题的视频,例如衍生品,链规则,产品规则和指数衍生。
微积分的本质| 第31天
观看2个关于主题隐含差异和限制的视频来自播放列表微积分的本质。
微积分的本质| 第32天
观看剩下的4个视频,内容包括集成和高阶衍生品等主题。
随机森林| 第33天
![](https://img.haomeiwen.com/i910914/6666d84ffe97b673.jpg)
实施随机森林| 第34天
但什么是神经网络?| 深度学习,第1章| 第35天
由3Blue1Brown youtube频道制作的关于神经网络的精彩视频。该视频可以很好地理解神经网络,并使用手写数字数据集来表达概念。链接到视频。
梯度下降,神经网络如何学习 深度学习,第2章| 第36天
3Blue1Brown youtube Channel的神经网络的第二部分,这个视频以一种有趣的方式解释了Gradient Descent的概念。169必须观看并强烈推荐。链接到视频。
什么是反向传播呢?| 深度学习,第3章| 第37天
3Blue1Brown youtube Channel的神经网络的第三部分,在这个视频中,谈话主要是关于偏导数和反向传播。链接到视频。
K意味着聚类| 第43天
转向无监督学习并研究了聚类。在我的网站上工作查看avikjain.me 还找到了一个很棒的动画,有助于轻松理解K - Means Clustering Link
![](https://img.haomeiwen.com/i910914/f9ac18bf0cedf7cb.jpg)
网友评论