# 调参 很多机器学习算法有很多可以调整的参数(即超参数),例如我们用的随机森林需要我们指定森林中有多少棵决策树,没棵决策树的最大深度等。这些超参数都或多或少的会影响这模型的性能。那么怎样才能找到合适的超参数,来让我们的模型性能达到比较好的效果呢?可以使用网格搜索! 网格搜索的意思其实就是遍历所有我们想要尝试的参数组合,看看哪个参数组合的性能最高,那么这组参数组合就是模型的最佳参数。 sklearn 为我们提供了网格搜索的接口,我们能很方便的进行网格搜索。 ```python from sklearn.model_selection import GridSearchCV # 想要调整的参数的字典,字典的key为参数名字,value为想要尝试参数值 param_grid = {'n_estimators': [10, 20, 50, 100, 150, 200],'max_depth': [5, 10, 15, 20, 25, 30]} # 采用5折验证的方式进行网格搜索,分类器为随机森林 grid_search = GridSearchCV(RandomForestClassifier(), param_grid, cv=5) grid_search.fit(X_train, Y_train) # 打印最佳参数组合 print(grid_search.best_params_) # 打印最佳参数组合时模型的最佳性能 print(grid_search.best_score_) ``` ![](../img/58.jpg) 可以看到经过调参之后,我们的随机森林模型的性能提高到了 0.8323 ,提升了接近 1% 的准确率。然后我们使用最佳参数构造随机森林,并对测试集测试会发现,测试集的准确率达到了 0.8525。 ```python Y_train = data['Survived'] X_train = data.drop(['Survived'], axis=1) Y_test = test_data['Survived'] X_test = test_data.drop(['Survived'], axis=1) clf = RandomForestClassifier(n_estimators=50, max_depth=5) clf.fit(X_train, Y_train) predict = clf.predict(X_test) print(accuracy_score(Y_test, predict)) ```