吴裕雄 python 机器学习——集成学习梯度提升决策树GradientBoostingClassifier分类模型
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了吴裕雄 python 机器学习——集成学习梯度提升决策树GradientBoostingClassifier分类模型,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含5269字,纯文字阅读大概需要8分钟。
内容图文
import numpy as np import matplotlib.pyplot as plt from sklearn import datasets,ensemble from sklearn.model_selection import train_test_split def load_data_classification(): ‘‘‘ 加载用于分类问题的数据集 ‘‘‘# 使用 scikit-learn 自带的 digits 数据集 digits=datasets.load_digits() # 分层采样拆分成训练集和测试集,测试集大小为原始数据集大小的 1/4return train_test_split(digits.data,digits.target,test_size=0.25,random_state=0,stratify=digits.target) #集成学习梯度提升决策树GradientBoostingClassifier分类模型def test_GradientBoostingClassifier(*data): X_train,X_test,y_train,y_test=data clf=ensemble.GradientBoostingClassifier() clf.fit(X_train,y_train) print("Traing Score:%f"%clf.score(X_train,y_train)) print("Testing Score:%f"%clf.score(X_test,y_test)) # 获取分类数据 X_train,X_test,y_train,y_test=load_data_classification() # 调用 test_GradientBoostingClassifier test_GradientBoostingClassifier(X_train,X_test,y_train,y_test)
def test_GradientBoostingClassifier_num(*data): ‘‘‘ 测试 GradientBoostingClassifier 的预测性能随 n_estimators 参数的影响 ‘‘‘ X_train,X_test,y_train,y_test=data nums=np.arange(1,100,step=2) fig=plt.figure() ax=fig.add_subplot(1,1,1) testing_scores=[] training_scores=[] for num in nums: clf=ensemble.GradientBoostingClassifier(n_estimators=num) clf.fit(X_train,y_train) training_scores.append(clf.score(X_train,y_train)) testing_scores.append(clf.score(X_test,y_test)) ax.plot(nums,training_scores,label="Training Score") ax.plot(nums,testing_scores,label="Testing Score") ax.set_xlabel("estimator num") ax.set_ylabel("score") ax.legend(loc="lower right") ax.set_ylim(0,1.05) plt.suptitle("GradientBoostingClassifier") plt.show() # 调用 test_GradientBoostingClassifier_num test_GradientBoostingClassifier_num(X_train,X_test,y_train,y_test)
def test_GradientBoostingClassifier_maxdepth(*data): ‘‘‘ 测试 GradientBoostingClassifier 的预测性能随 max_depth 参数的影响 ‘‘‘ X_train,X_test,y_train,y_test=data maxdepths=np.arange(1,20) fig=plt.figure() ax=fig.add_subplot(1,1,1) testing_scores=[] training_scores=[] for maxdepth in maxdepths: clf=ensemble.GradientBoostingClassifier(max_depth=maxdepth,max_leaf_nodes=None) clf.fit(X_train,y_train) training_scores.append(clf.score(X_train,y_train)) testing_scores.append(clf.score(X_test,y_test)) ax.plot(maxdepths,training_scores,label="Training Score") ax.plot(maxdepths,testing_scores,label="Testing Score") ax.set_xlabel("max_depth") ax.set_ylabel("score") ax.legend(loc="lower right") ax.set_ylim(0,1.05) plt.suptitle("GradientBoostingClassifier") plt.show() # 调用 test_GradientBoostingClassifier_maxdepth test_GradientBoostingClassifier_maxdepth(X_train,X_test,y_train,y_test)
def test_GradientBoostingClassifier_learning(*data): ‘‘‘ 测试 GradientBoostingClassifier 的预测性能随学习率参数的影响 ‘‘‘ X_train,X_test,y_train,y_test=data learnings=np.linspace(0.01,1.0) fig=plt.figure() ax=fig.add_subplot(1,1,1) testing_scores=[] training_scores=[] for learning in learnings: clf=ensemble.GradientBoostingClassifier(learning_rate=learning) clf.fit(X_train,y_train) training_scores.append(clf.score(X_train,y_train)) testing_scores.append(clf.score(X_test,y_test)) ax.plot(learnings,training_scores,label="Training Score") ax.plot(learnings,testing_scores,label="Testing Score") ax.set_xlabel("learning_rate") ax.set_ylabel("score") ax.legend(loc="lower right") ax.set_ylim(0,1.05) plt.suptitle("GradientBoostingClassifier") plt.show() # 调用 test_GradientBoostingClassifier_learning test_GradientBoostingClassifier_learning(X_train,X_test,y_train,y_test)
def test_GradientBoostingClassifier_subsample(*data): ‘‘‘ 测试 GradientBoostingClassifier 的预测性能随 subsample 参数的影响 ‘‘‘ X_train,X_test,y_train,y_test=data fig=plt.figure() ax=fig.add_subplot(1,1,1) subsamples=np.linspace(0.01,1.0) testing_scores=[] training_scores=[] for subsample in subsamples: clf=ensemble.GradientBoostingClassifier(subsample=subsample) clf.fit(X_train,y_train) training_scores.append(clf.score(X_train,y_train)) testing_scores.append(clf.score(X_test,y_test)) ax.plot(subsamples,training_scores,label="Training Score") ax.plot(subsamples,testing_scores,label="Training Score") ax.set_xlabel("subsample") ax.set_ylabel("score") ax.legend(loc="lower right") ax.set_ylim(0,1.05) plt.suptitle("GradientBoostingClassifier") plt.show() # 调用 test_GradientBoostingClassifier_subsample test_GradientBoostingClassifier_subsample(X_train,X_test,y_train,y_test)
def test_GradientBoostingClassifier_max_features(*data): ‘‘‘ 测试 GradientBoostingClassifier 的预测性能随 max_features 参数的影响 ‘‘‘ X_train,X_test,y_train,y_test=data fig=plt.figure() ax=fig.add_subplot(1,1,1) max_features=np.linspace(0.01,1.0) testing_scores=[] training_scores=[] for features in max_features: clf=ensemble.GradientBoostingClassifier(max_features=features) clf.fit(X_train,y_train) training_scores.append(clf.score(X_train,y_train)) testing_scores.append(clf.score(X_test,y_test)) ax.plot(max_features,training_scores,label="Training Score") ax.plot(max_features,testing_scores,label="Training Score") ax.set_xlabel("max_features") ax.set_ylabel("score") ax.legend(loc="lower right") ax.set_ylim(0,1.05) plt.suptitle("GradientBoostingClassifier") plt.show() # 调用 test_GradientBoostingClassifier_max_features test_GradientBoostingClassifier_max_features(X_train,X_test,y_train,y_test)
原文:https://www.cnblogs.com/tszr/p/10801558.html
内容总结
以上是互联网集市为您收集整理的吴裕雄 python 机器学习——集成学习梯度提升决策树GradientBoostingClassifier分类模型全部内容,希望文章能够帮你解决吴裕雄 python 机器学习——集成学习梯度提升决策树GradientBoostingClassifier分类模型所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。