美文网首页
机器学习(一)

机器学习(一)

作者: 过期的薯条 | 来源:发表于2024-01-03 17:43 被阅读0次

机器学习的分类

机器学习可以根据不同的标准进行分类。以下是几种常见的分类方式:

1. 监督学习(Supervised Learning)

  • 在这种学习中,算法从标记的训练数据中学习,每个训练样本都有一个与之对应的标签或输出。
  • 例如:回归(Regression)、分类(Classification)。

2. 无监督学习(Unsupervised Learning)

  • 无监督学习涉及在没有标签的数据中寻找模式。
  • 例如:聚类(Clustering)、降维(Dimensionality Reduction)。

3. 半监督学习(Semi-supervised Learning)

  • 这种类型的学习使用大量未标记的数据和少量标记的数据。
  • 它通常用于情况下,标记数据需要大量资源来收集。

4. 强化学习(Reinforcement Learning)

  • 强化学习是一种学习方法,算法通过与环境的交互获得奖励或惩罚,以此作为学习的信号。
  • 例如:游戏中的AI、机器人导航。

5. 深度学习(Deep Learning)

  • 深度学习是一种特殊的机器学习方法,它使用深层神经网络来学习数据的复杂模式。
  • 例如:卷积神经网络(CNN)、循环神经网络(RNN)。

6. 迁移学习(Transfer Learning)

  • 在迁移学习中,模型在一个任务上受过训练后,会被用来解决另一个相关的任务。
  • 这种方法可以节省大量的训练时间和数据。

卷积

卷积等同于微积分,是一个数据概念。从数学上来说卷积就是定义两个函数的一种乘法。 对离散序列来说就是两个多项式的乘法。

卷积核
卷积核是卷积神经网络中的一个重要概念。在卷积层中,卷积核(也称为滤波器)是用于提取输入数据特征的小型矩阵。卷积核通过与输入数据进行卷积操作,可以检测出不同方向、颜色和纹理等特征。

边缘处理
边缘处理是指卷积层对输入数据中的边缘特征进行识别和提取的过程。矩阵的相乘前提的是:第一个矩阵的列数 等于 第二矩阵的行数。在进行卷积的时候。可能不满足这个前提,所以需要对边缘数据进行处理。常见的方法有:补0法,截断法

Stride :卷积核移动的步长
步长越大,精确度越低,对计算的要求小
步长越大,精确度越高,对计算 要求越大

最大池化层
池化通过对 俩个矩阵操作得到的子矩阵 进行下采样,减少数据维度,从而降低网络的计算复杂度、参数数量,并且可以一定程度上防止过拟合。
常见的池化方法:

  • 最大池化:对输入数据的每个子区域取最大值作为输出。
  • 平均池化:对输入数据的每个子区域取平均值作为输出。

池化操作的主要目的包括:

  • 降低计算负担:通过减少特征图的尺寸,可以降低后续层的参数数量和计算量。
  • 提取主导特征:保留最显著的特征,有助于提高模型的鲁棒性和泛化能力。
  • 参数共享:减小特征图的尺寸,有助于减少过拟合和提高模型的泛化能力。

Flatten(压平)
将矩阵卷积之后的 矩阵,转为一维向量的操作。称为 压平。
具体来说,卷积神经网络在进行特征提取之后会得到一个二维或三维的特征图,每个位置上有对应的特征值。而全连接层需要展平的输入是一维向量,因此在这两者之间需要引入 Flatten 层来完成维度的变换。
Flatten 操作的作用如下:
将二维或三维的特征图展开为一维向量,以便输入到全连接层中进行分类或其他任务。
帮助网络整合不同位置的特征信息,以便更好地理解整个输入数据。

全连接层
全连层是一个多维的矩阵,每一行代表 一个特征点,每一行的数据来自上述 Flatten的结果。

相关文章

网友评论

      本文标题:机器学习(一)

      本文链接:https://www.haomeiwen.com/subject/bixvndtx.html