K折交叉验证

作者: 0过把火0 | 来源:发表于2018-10-09 21:22 被阅读0次

    机器学习中,在样本量不充足的情况下,为了充分利用数据集对算法效果进行测试,将数据集随机分为 k 个包,每次将其中一个包作为测试集,剩下 k-1 个包作为训练集进行训练。

    k 折交叉验证的的 k 值不能太大,也不能太小。k 值过大,会降低运算速度。若 k 与样本数量 N 相同,则是留一法(Leave-One-Out)。k 值较大,训练集越接近整个训练样本,有利于减小模型偏差(bias)。一般可以将 k 作为超参数调试,根据表现选择合适的 k 值。

    k 折交叉验证能够有效提高模型的学习能力,类似于增加了训练样本数量,使得学习的模型更加稳健,鲁棒性更强。选择合适的 k 值能够有效避免过拟合。

    转载注明:https://www.jianshu.com/p/e6b8538b3815

    相关文章

      网友评论

        本文标题:K折交叉验证

        本文链接:https://www.haomeiwen.com/subject/cjzyaftx.html