原图链接:https://scikit-learn.org/stable/tutorial/machine_learning_map/老板每天都转发机器学习公众号推文,只学会如何整理数据和将数据导入包是不行的,这不是一朝一夕能够学会的。
:学习机器学习可以提高以后的竞争力,但这不是我平时的主要注意力所在,主要在休息日慢慢学习,慢慢更新本文章。
1. 如何学习?
南大周志华的《机器学习》这本书怎么样? - 知乎
https://www.zhihu.com/question/39945249/answer/2056715754
如何系统学习机器学习? - 知乎
https://www.zhihu.com/question/266291909(吴恩达也作了回答)
需要学的数学知识:微积分、线性代数、概率论与数理统计......
1.1 所需数理知识与资源
-
视频课程
吴恩达 -
书
《统计学习方法》李航
《统计方法导论》
《机器学习》(西瓜书) 周志华
《深度学习》(花书)
《机器学习实战》 ( 配套代码) -
帖子
知乎 | 《统计学习方法》硬核 Python 实现,完工
知乎 | Machine Learning: 十大机器学习算法
公众号 | 生信菜鸟团 | 用 Scikit-learn Pipeline 创建机器学习流程 -
kaggle 练习
知乎 | Kaggle入门,看这一篇就够了
1.2 简要介绍
-
常见分类
监督学习、无监督学习、半监督学习、强化学习 -
所解决问题
回归、分类、聚类、降维...... -
框架(后面三个为深度学习框架)
scikit-learn、TensorFlow、keras、PyTorch -
开发机器学习应用程序的步骤
收集数据
准备输入数据
分析输入数据
训练算法
测试算法
使用算法
看来,学习机器学习,必然要有一定的数学基础,那数学的分支有哪些呢?
知乎 | 第1期 大学数学专业概述及其分类
2. 微积分
知乎 | 30分钟通俗讲解微积分的整个框架
bilibili | 3Blue1Brown | 微积分的本质
书 | 《普林斯顿微积分读本》
3. 线性代数
bilibili | 3Blue1Brown | 线性代数的本质
bilibili | 工程师和小土豆 | 数据科学 | 线性代数
书 | 《线性代数的几何意义》西安电子科技大学出版社
4. 概率论与数理统计
知乎 | 如何来系统地学习统计学?
知乎 | 请问可不可以通俗的解释一下贝叶斯公式?
bilibili | 工程师和小土豆 | 数据科学 | 统计入门
书 | 《概率论与数理统计》陈希孺
5. scikit-learn & 算法
2.1 线性回归
iris数据集
### 2.2 逻辑回归
### 2.3 k最近邻
### 2.4 支持向量机
### 2.5 朴素贝叶斯
### 2.6 决策树
### 2.7 随机森林
- 深度神经网络
- 卷积神经网络
- 循环神经网络
# 函数
- 一次函数、二次函数、多次函数、激活函数、Sigmoid 函数和对数函数。
Sigmoid 函数中的 e 叫自然常数,是一个无理数,约等于2.72。
对数函数是指数函数的逆运算。从几何意义上说,对数是将数轴进行强力的缩放。
- 函数的变化趋势是通过求导和微分来实现的。连续性是函数的性质之一,是求导的前提条件。
导数是针对一个变量而言的函数变化趋向。而对于多远(即多变量)的函数,它关于其中一个变量的导数为偏导数,此时保持其他变量恒定。如果其中所有变量都允许变化,则称为全导数。
- 凹凸性也是函数的性质之一。
函数还有很多其他性质,奇偶性、单调性,周期性等。
凸函数、非凸函数。机器学习的梯度下降过程中,只有凸函数能够确保下降到全局最低点。
# 梯度下降
对多元函数的各参数求偏导数,然后把所求得的各个参数的偏导数以向量的形式写出来,就是梯度。
机器学习的本质是找到最优的函数
可以建立误差和模型参数之间的函数(最好是凸函数)
梯度下降能够引导我们走向凸函数的全局最低点,找到误差最小时的参数。
# 机器学习数据结构,张量
矩阵(二维数组、2D 张量)
轴,阶,Numpy中数组的轶
X = np.array(5) # 标量
X = np.array([5, 6, 7, 8, 9]) # 向量
X.ndim # 向量的阶
X.shape # 向量的形状
# 概率与统计
- 概率
条件概率、后验概率
似然、似然函数
- 正态分布
- 方差标准差
网友评论