Python数据分析与数据挖掘 第10章 数据挖掘.ppt

Python数据分析与数据挖掘 第10章 数据挖掘.ppt

  1. 1、本文档共49页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
随机森林 sklearn.ensemble.RandomForestClassifier(n_estimators=warn, criterion=gini, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=auto, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None) 参数 说明 n_estimators 森林中决策树的数目 bootstrap 建立随机森林中的各决策树时,是否采用有放回的抽样方法选取训练数据样本,如果设为False,则使用整个数据集建立决策树 oob_score 是否使用袋外(out-of-bag)样本(即数据集中训练数据集以外的样本)来估计泛化精度 n_jobs 为并行完成训练和预测的任务数量(默认值为None表示任务数为1;-1则为等于处理器的数量) warm_start 是否重新生成随机森林,为True时,在上一次调用的结果上,添加更多的决策树,否则则重新生成随机森林 随机森林 sklearn.ensemble.RandomForestClassifier(n_estimators=warn, criterion=gini, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=auto, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None) 属性 说明 estimators_ 决策树分类器DecisionTreeClassifier的集合 classes_ 分类标签(单输出)数组,或者分类标签的数组列表(多输出问题)。 n_classes_ 分类类别数量(单输出问题),或各输出的分类类别数量列表(多输出问题)。 n_features_ 执行拟合时的特征数量。 n_outputs_ 执行拟合时的输出数量。 feature_importances_ 特征的重要性(值越高,特征越重要),为一个(n_features,)数组。 随机森林-示例 from sklearn.ensemble import RandomForestClassifier from mlxtend.plotting import plot_decision_regions # 产生数据 X, y = …(略) # 创建各种分类器初始模型 clf = RandomForestClassifier(n_estimators=100, max_depth=5) r = clf.fit(X, y) #训练分类器模型 # 根据模型绘制数据散点图,及分类区域图形 fig = plt.figure(figsize=(5, 4)) fig.gca().set_title(Random Forest) fig = plot_decision_regions(X=X, y=y, clf=clf, legend=2) 随机森林-示例 对于多维数据,可以引入非线性核函数,使分割超平面更好地符合数据的模式,例如可以为SVC()设置参数kernel=rbf,使用高斯核函数对数据进行转换处理。 随机森林-示例 采用一对多的决策函数输出方式 模型融合 mlxtend.classifier.EnsembleVoteClassifier( clfs, voting=hard, weights=None, verbose=0, use_clones=True, fit_base_estimators=True) 属性 说明 clfs 分类器实例列表 voting 投票方式,可以是hard(按分类预测的结果进行投票),或soft(按预测概率和的最大值来进行投票) weights 为(hard时)对分类预测结果或(soft时)分类预测概率

文档评论(0)

dllkxy + 关注
实名认证
内容提供者

本文库主要涉及建筑、教育等资料,有问题可以联系解决哦

版权声明书
用户编号:5213302032000001

1亿VIP精品文档

相关文档