使用赤池信息量准则(AIC),贝叶斯信息准则(BIC)和交叉验证(CV)来选择Lasso模型的最优正则化参数alp...[作者空间]
很多应用需要决定新的观测值是否属于已有的观测集,这种能力经常被用来清洗数据。两个很重要的区别: 奇异值探测(nov...[作者空间]
class sklearn.ensemble.RandomForestClassifier(n_estimator...[作者空间]
LinearSVC() 与 SVC(kernel='linear') 的区别概括如下: LinearSVC() 最...[作者空间]
sklearn.metrics.auc sklearn.metrics.auc(x, y, reorder=Fal...[作者空间]
超参数是不能直接在模型中学习的参数。包括 SVM中的 C, kernel and gamma,Lasso中的 al...[作者空间]
在scikit-learn中,可以使用 train_test_split 快速地将数据集分为训练数据和测试数据。当...[作者空间]
sklearn.neighbors提供基于邻居的有监督和无监督的学习方法。无监督最近邻方法是很多学习方法的基础,特...[作者空间]
最小二乘法 LinearRegression使用系数w 拟合模型,最小化实际观测值和预测值的残差平方和。 然而,最...[作者空间]
去掉方差较小的特征 方差阈值(VarianceThreshold)是特征选择的一个简单方法,去掉那些方差没有达到阈...[作者空间]
集成方法的目的是通过结合很多基学习器来增强泛化和鲁棒性。两种集成方法: averaging methods,主要原...[作者空间]
决策树是一种用来分类、回归、非参数、有监督的学习方法。 决策树的优点: 1.简单易懂,可视化展现;2.相比其他方法...[作者空间]
numpy.meshgrid 输入坐标向量返回对应的矩阵。Return coordinate matrices f...[作者空间]
SVM是一种用于分类、回归和异常值探测的有监督学习方法。 SVM的优点:在高维空间有效;在样本维度比样本数量多的情...[作者空间]