美文网首页
机器学习-最小二乘法参数估计

机器学习-最小二乘法参数估计

作者: 阿凡提说AI | 来源:发表于2024-09-29 00:30 被阅读0次

    最小二乘法参数估计

    最小二乘法是统计学中的一种常用的参数估计方法,它通过最小化残差平方和来求解模型参数,从而拟合数据并进行预测。

    一、基本原理

    假设我们有一个数据集包含 n 个样本,每个样本都包含一个特征向量 X_i 和一个真实值 y_i。我们希望找到一个线性模型来拟合这些数据,模型可以表示为:

    y_hat_i = w^T * X_i + b
    

    其中,w 代表模型的权重向量,b 代表偏置项。y_hat_i 代表模型对样本 X_i 的预测值。

    最小二乘法的目标是找到 w 和 b 的值,使得所有样本的预测值与真实值之间的误差平方和最小化。误差的平方和定义为:

    L = Σ(y_i - y_hat_i)^2
    

    二、求解参数

    为了求解 w 和 b,我们需要对 L 求偏导,并令其为零:

    ∂L/∂w = 0
    ∂L/∂b = 0
    

    经过推导,可以得到 w 和 b 的解:

    w = (X^T * X)^(-1) * X^T * y
    b = (1/n) * Σ(y_i - w^T * X_i)
    

    其中,X 是所有样本的特征向量组成的矩阵,y 是所有样本的真实值组成的向量。

    三、推导过程

    1. 将 y_hat_i 代入 L 中,并展开 L:
    L = Σ(y_i - w^T * X_i - b)^2
    
    1. 对 L 求偏导,得到关于 w 和 b 的偏导数:
    ∂L/∂w = -2 * Σ(y_i - w^T * X_i - b) * X_i
    ∂L/∂b = -2 * Σ(y_i - w^T * X_i - b)
    
    1. 令偏导数为零,并整理得到 w 和 b 的解:
    w = (X^T * X)^(-1) * X^T * y
    b = (1/n) * Σ(y_i - w^T * X_i)
    

    四、优点

    • 简单易懂: 最小二乘法的原理简单易懂,易于理解和实现。
    • 计算量小: 最小二乘法只需要求解一个线性方程组,计算量较小。
    • 稳定性高: 最小二乘法对噪声的容忍度较高,可以有效地处理存在噪声的数据。

    五、缺点

    • 对异常值敏感: 最小二乘法对异常值非常敏感,如果数据中存在异常值,可能会导致模型参数的偏差。
    • 只能拟合线性模型: 最小二乘法只能拟合线性模型,对于非线性模型,需要进行非线性变换或使用其他方法。

    六、应用场景

    • 线性回归: 最小二乘法是线性回归中最常用的参数估计方法。
    • 曲线拟合: 最小二乘法可以用来拟合各种类型的曲线,例如多项式曲线、指数曲线等。
    • 机器学习: 最小二乘法也可以应用于机器学习模型的训练,例如线性模型、神经网络等。

    七、总结

    最小二乘法是一种简单、高效的参数估计方法,可以用于线性模型的拟合和预测。它具有简单易懂、计算量小、稳定性高等优点,但也存在对异常值敏感和只能拟合线性模型等缺点。

    import numpy as np
    
    def linear_regression_least_squares(X, y):
      """
      使用最小二乘法估计线性回归模型的参数。
    
      参数:
      X: 特征矩阵,形状为 (n_samples, n_features)
      y: 目标变量向量,形状为 (n_samples,)
    
      返回值:
      w: 权重向量,形状为 (n_features,)
      b: 偏置项,形状为 (1,)
      """
    
      # 添加偏置项
      X = np.c_[np.ones(X.shape[0]), X]
    
      # 计算权重向量
      w = np.linalg.solve(X.T @ X, X.T @ y)
    
      # 提取偏置项
      b = w[0]
      w = w[1:]
    
      return w, b
    
    # 示例用法
    # 特征矩阵
    X = np.array([[1, 2], [3, 4], [5, 6]])
    
    # 目标变量向量
    y = np.array([3, 7, 11])
    
    # 使用最小二乘法估计参数
    w, b = linear_regression_least_squares(X, y)
    
    # 打印估计的参数
    print("权重向量:", w)
    print("偏置项:", b)
    
    # 使用估计的参数进行预测
    y_hat = X @ w + b
    
    # 打印预测结果
    print("预测值:", y_hat)
    

    代码解释:

    1. 添加偏置项: 将特征矩阵 X 的第一列设置为全为 1 的列向量,以便模型包含偏置项。
    2. 计算权重向量: 使用 np.linalg.solve 函数求解线性方程组,得到权重向量 w
    3. 提取偏置项:w 的第一个元素作为偏置项 b,其余元素作为权重向量 w
    4. 预测结果: 使用估计的参数 wb 对新特征进行预测。

    示例用法:

    • 该代码示例使用了一个简单的特征矩阵 X 和目标变量向量 y 来演示最小二乘法的应用。
    • 使用 linear_regression_least_squares 函数计算线性回归模型的参数。
    • 打印估计的参数 wb
    • 使用估计的参数对新特征进行预测,并打印预测结果。

    注意:

    • 该代码仅适用于线性回归模型。
    • 需要确保特征矩阵 X 和目标变量向量 y 的维度匹配。
    • 可以在 np.linalg.solve 函数中使用 np.linalg.lstsq 函数,它可以处理奇异矩阵的情况。

    其他实现方式:

    除了使用 np.linalg.solve 函数,也可以使用其他方法来计算最小二乘法参数,例如:

    • 使用 np.linalg.lstsq 函数。
    • 使用梯度下降法。
    • 使用随机梯度下降法。

    选择哪种实现方式取决于具体的应用场景和要求。

    矩阵乘法: 当 @ 符号用于两个 NumPy 数组之间时,它表示矩阵乘法。例如,A @ B 等同于 np.dot(A, B),其中 A 和 B 是 NumPy 数组。

    w = np.linalg.solve(X.T @ X, X.T @ y)
    

    这段代码使用 NumPy 的 np.linalg.solve 函数来求解线性方程组,从而得到线性回归模型的权重向量 w

    详细解释:

    1. X.T @ X: 首先,计算特征矩阵 X 的转置 X.T,并与 X 进行矩阵乘法。这相当于计算矩阵 X 的协方差矩阵。
    2. X.T @ y: 接着,计算特征矩阵 X 的转置 X.T 与目标变量向量 y 的矩阵乘法。这相当于计算特征矩阵 X 与目标变量向量 y 的协方差向量。
    3. np.linalg.solve(A, b): np.linalg.solve 函数用于求解线性方程组 Ax = b。其中:
      • A 是系数矩阵,在本例中是 X.T @ X
      • b 是常数向量,在本例中是 X.T @ y
      • x 是未知向量,在本例中是权重向量 w

    最终,w = np.linalg.solve(X.T @ X, X.T @ y) 这句话等价于求解以下线性方程组:

    (X.T @ X) * w = X.T @ y

    求解这个方程组得到的 w 就是线性回归模型的权重向量,它能够最小化预测值与真实值之间的平方误差之和。

    这个过程本质上是利用最小二乘法来估计线性回归模型的参数。

    简单来说,这段代码利用了线性代数中的矩阵运算来高效地求解线性回归模型的权重向量 w

    相关文章

      网友评论

          本文标题:机器学习-最小二乘法参数估计

          本文链接:https://www.haomeiwen.com/subject/carkrjtx.html