上一次用了验证曲线来找最优超参数。
今天来看看网格搜索(grid search),也是一种常用的找最优超参数的算法。
网格搜索实际上就是暴力搜索:
首先为想要调参的参数设定一组候选值,然后网格搜索会穷举各种参数组合,根据设定的评分机制找到最好的那一组设置。
以支持向量机分类器 SVC 为例,用 GridSearchCV 进行调参:
from sklearn import datasetsfrom sklearn.model_selection import train_test_splitfrom sklearn.model_selection import GridSearchCVfrom sklearn.metrics import classification_reportfrom sklearn.svm import SVC
1. 导入数据集,分成 train 和 test 集:
digits = datasets.load_digits() n_samples = len(digits.images) X = digits.images.reshape((n_samples, -1)) y = digits.target X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.5, random_state=0)
2. 备选的参数搭配有下面两组,并分别设定一定的候选值:
例如我们用下面两个 grids:
kernel='rbf', gamma, 'C'
kernel='linear', 'C'
tuned_parameters = [{'kernel': ['rbf'], 'gamma': [1e-3, 1e-4], 'C': [1, 10, 100, 1000]}, {'kernel': ['linear'], 'C': [1, 10, 100, 1000]}]
3. 定义评分方法为:
scores = ['precision', 'recall']
4. 调用 GridSearchCV,
将 SVC(), tuned_parameters, cv=5
, 还有 scoring 传递进去,
用训练集训练这个学习器 clf,
再调用 clf.best_params_
就能直接得到最好的参数搭配结果,
例如,在 precision 下,
返回最好的参数设置是:{'C': 10, 'gamma': 0.001, 'kernel': 'rbf'}
还可以通过 clf.cv_results_
的 'params','mean_test_score',看一下具体的参数间不同数值的组合后得到的分数是多少:
结果中可以看到最佳的组合的分数为:0.988 (+/-0.017)
还可以通过 classification_report
打印在测试集上的预测结果 clf.predict(X_test)
与真实值 y_test
的分数:
for score in scores: print("# Tuning hyper-parameters for %s" % score) print() # 调用 GridSearchCV,将 SVC(), tuned_parameters, cv=5, 还有 scoring 传递进去, clf = GridSearchCV(SVC(), tuned_parameters, cv=5, scoring='%s_macro' % score) # 用训练集训练这个学习器 clf clf.fit(X_train, y_train) print("Best parameters set found on development set:") print() # 再调用 clf.best_params_ 就能直接得到最好的参数搭配结果 print(clf.best_params_) print() print("Grid scores on development set:") print() means = clf.cv_results_['mean_test_score'] stds = clf.cv_results_['std_test_score'] # 看一下具体的参数间不同数值的组合后得到的分数是多少 for mean, std, params in zip(means, stds, clf.cv_results_['params']): print("%0.3f (+/-%0.03f) for %r" % (mean, std * 2, params)) print() print("Detailed classification report:") print() print("The model is trained on the full development set.") print("The scores are computed on the full evaluation set.") print() y_true, y_pred = y_test, clf.predict(X_test) # 打印在测试集上的预测结果与真实值的分数 print(classification_report(y_true, y_pred)) print()
点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦