美文网首页
调参神器贝叶斯优化(bayesian-optimization)

调参神器贝叶斯优化(bayesian-optimization)

作者: 王同学死磕技术 | 来源:发表于2020-03-20 16:01 被阅读0次

今天笔者来介绍一下和调参有关的一些事情,作为算法工程师,调参是不可避免的一个工作。在坊间算法工程师有时候也被称为:调参侠。但是一个合格的算法工程师,调参这部分工作不能花费太多的气力,因为还有很多艰深的问题等着你去克服,怎么能在调参这块花大力气呢。所以自动调参的学习是一项必须学会的技能。这里笔者就介绍一个调参神器——贝叶斯调参

贝叶斯调参简介

说到自动调参大家首先会想到的就是网格搜索(网格搜索:“遍历所以的参数组合,从而选出最优的参数组合”)。笔者之前也经常会用到这个方法,但是后来搜索空间变大之后,发现网格搜索的速度太慢,所以转而投靠贝叶斯调参。接下来笔者简要介绍一下贝叶斯调参相对于网格搜索的优势:

  • 贝叶斯调参采用高斯过程,会考虑到之前的参数信息,不断地更新先验;网格搜索则不会考虑先验信息。
  • 贝叶斯调参迭代次数少,速度快;网格搜索会遍历所有的可能的参数组合,所以速度慢,参数多时易导致维度爆炸
  • 贝叶斯调参针对非凸问题依然稳健;网格搜索针对非凸问题易得到局部最优。

当然贝叶斯调参背后涉及的高斯过程等一些数学知识,这里笔者水平有限,之后理解后再和大家详说,但是贝叶斯调参的思想就是:利用已有的先验信息去找到使目标函数达到全局最大的参数。

笔者通过实战也确实发现,贝叶斯调参确实能够很快的帮助我们发现一组还不错的参数。

实战部分

数据准备,随机产生一千个2分类的数据,每条数据的特征维度为10。

from sklearn.datasets import make_classification
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.model_selection import cross_val_score
from bayes_opt import BayesianOptimization
x, y = make_classification(n_samples=1000,n_features=10,n_classes=2)

采用GBDT默认的参数在二分类的数据上训练一遍,然后评估出模型的ROC-AUC得分,这里GBDT默认参数训练得到的模型的得分为0.952。

gbdt = GradientBoostingClassifier()
cross_val_score(gbdt, x, y, cv=20, scoring='roc_auc').mean()
### 结果是:0.952

python用户可以采用下方命令行可以快速的安装贝叶斯调试利器—— bayesian-optimization

pip install -i https://mirrors.aliyun.com/pypi/simple bayesian-optimization

这里需要定义好贝叶斯调参的目标函数,以及参数空间的范围。运行gbdt_op.maximize(),就可以开始用贝叶斯优化去搜索最优参数空间了。

from bayes_opt import BayesianOptimization
def gbdt_cv(n_estimators, min_samples_split, max_features, max_depth):
    res = cross_val_score( 
        GradientBoostingClassifier(n_estimators=int(n_estimators),
                                                        min_samples_split=int(min_samples_split),
                                                        max_features=min(max_features, 0.999), # float
                                                        max_depth=int(max_depth),
                                                        random_state=2
        ),
        x, y, scoring='roc_auc', cv=20
    ).mean()
    return res

gbdt_op = BayesianOptimization(
        gbdt_cv,
        {'n_estimators': (10, 250),
        'min_samples_split': (2, 25),
        'max_features': (0.1, 0.999),
        'max_depth': (5, 15)}
    )

gbdt_op.maximize()

下方是调参过程,我们可以看到,各参数空间所对应的得分,以及每个参数空间的具体数值情况。


贝叶斯调参过程

输出最优参数组合:

print(gbdt_op.max)
输出:
{'target': 0.9600151282051282,
 'params': {'max_depth': 14.862826451133763,
  'max_features': 0.12474933898472207,
  'min_samples_split': 2.594293568638591,
  'n_estimators': 227.79962861886497}}

用最优的参数组合定义一个新的GBDT,在和之前同样的数据上做训练,并生成评估得分。一旦出现更好的参数空间,会有通过不同颜色来区别。

gbdt1 = GradientBoostingClassifier(n_estimators=228,
                                    max_depth=15,
                                    min_samples_split=3,
                                    max_features=0.12)

结果如下图所示:参数经贝叶斯优化的后GBDT 比之前默认参数的GBDT的ROC-AUC得分要高0.002。做个模型的朋友应该知道千分之二的算是一个不错的提升。

参数经贝叶斯优化的后GBDT 随机参数的GBDT

结语

其实贝叶斯调参最主要的优势,是节约了算法工程师的时间和精力,这样他们就可以把更多的时间和精力用来设计出精度更高,泛化能力更强的模型,去帮助业务的提升,这也是自动调参的意义所在。所以,还等什么,快把这样一个调参神器用起来吧。

参考

https://www.cnblogs.com/yangruiGB2312/p/9374377.html

相关文章

  • 调参神器贝叶斯优化(bayesian-optimization)

    今天笔者来介绍一下和调参有关的一些事情,作为算法工程师,调参是不可避免的一个工作。在坊间算法工程师有时候也被称为:...

  • 贝叶斯调参

    机器学习中参数调优的目的是为了找到模型在测试集上表现最好的参数,目前常见的调参方法主要有四种: 1、手动调参; 2...

  • 机器学习调参之贝叶斯优化

    一、简介 贝叶斯优化用于机器学习调参,主要思想是,给定优化的目标函数(广义的函数,只需指定输入和输出即可,无需知道...

  • 优化算法work plan

    贝叶斯优化->强化学习优化->PBT

  • 华为河伯

    华为诺亚方舟实验室开源了一个贝叶斯优化+RL的仓库,里面包括几部分: 贝叶斯研究(1)HEBO:异方差进化贝叶斯优...

  • 贝叶斯优化

    前言 贝叶斯优化(Bayesian Optimization)是最近机器学习领域内一个比较热门的话题,它应该是在神...

  • 贝叶斯估计

    Note: 贝叶斯估计又称最大后验估计(MAP),区别于 MLE 认为被估计的参数为定值。 贝叶斯学派把被估计的参...

  • 算法笔记(7)-朴素贝叶斯算法及Python代码实现

    朴素贝叶斯算法有三种类型,分别是贝努利朴素贝叶斯、高斯贝叶斯、多项式朴素贝叶斯。 贝叶斯公式 贝努利朴素贝叶斯 适...

  • 贝叶斯优化代码

    git地址: https://github.com/fmfn/BayesianOptimization

  • 贝叶斯优化原理

    定义obj function, x 表示模型参数, y表示对应参数在验证集上的score 获得冷启动数据[X, Y...

网友评论

      本文标题:调参神器贝叶斯优化(bayesian-optimization)

      本文链接:https://www.haomeiwen.com/subject/vnejyhtx.html