分类--逻辑回归,朴素贝叶斯,决策树,随机森林,GDBT,XGBoost
分类评估--正确率,精度,召回率,F1值,roc值
模型选择--网格搜索,交叉验证
param = {"penalty": ["l1", "l2"]}
# penalty:设置正则化项,其取值为'l1'或'l2',默认为'l2'。
# C:正则化强度,C越大,权重越小。
gc = LogisticRegression()
gc = GridSearchCV(gc, param_grid=param, cv=10)
gc.fit(x_train, y_train)
print("选择最好模型预测的准确率为:", gc.score(x_test, y_test))
print("交叉验证的最好参数", gc.best_params_)
print("在交叉验证当中验证的最好结果", gc.best_score_)
print("gc选择了的模型是:", gc.best_estimator_)
print("每次交叉验证的结果为:", gc.cv_results_)
网友评论