数据分析师-数据挖掘与机器学习-机器学习基础_神经网络与深度学习基础.docxVIP

数据分析师-数据挖掘与机器学习-机器学习基础_神经网络与深度学习基础.docx

  1. 1、本文档共25页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

PAGE1

PAGE1

机器学习基础

1监督学习与非监督学习

1.1监督学习

监督学习是一种机器学习方法,其中模型从带有标签的训练数据中学习。这意味着每个训练样本都包含输入数据和期望的输出结果。模型的目标是通过学习输入和输出之间的关系,来预测新输入数据的输出。

1.1.1示例:线性回归

线性回归是一种简单的监督学习算法,用于预测连续值输出。假设我们有一组数据,表示房屋的大小(平方米)和价格(万元):

#示例数据

importnumpyasnp

X=np.array([[50],[60],[70],[80],[90],[100]])#房屋大小

y=np.array([30,35,40,45,50,55])#房屋价格

#使用线性回归模型

fromsklearn.linear_modelimportLinearRegression

model=LinearRegression()

model.fit(X,y)

#预测新数据点

new_data=np.array([[75]])

prediction=model.predict(new_data)

print(预测价格:,prediction[0])

1.2非监督学习

非监督学习处理没有标签的数据,模型的目标是发现数据的内在结构或模式。常见的非监督学习任务包括聚类和降维。

1.2.1示例:K-means聚类

K-means是一种流行的非监督学习算法,用于将数据点分组到K个簇中。假设我们有一组数据,表示不同客户的消费行为:

#示例数据

importnumpyasnp

X=np.array([[1,2],[1,4],[1,0],

[4,2],[4,4],[4,0]])

#使用K-means模型

fromsklearn.clusterimportKMeans

kmeans=KMeans(n_clusters=2,random_state=0)

kmeans.fit(X)

#预测数据点所属的簇

predictions=kmeans.predict([[0,0],[4,4]])

print(预测簇:,predictions)

2回归与分类问题

2.1回归问题

回归问题涉及预测连续值输出。线性回归和多项式回归是解决回归问题的常见方法。

2.2分类问题

分类问题涉及预测离散值输出,即数据点属于哪个类别。常见的分类算法包括逻辑回归、支持向量机和决策树。

2.2.1示例:逻辑回归分类

逻辑回归是一种用于分类问题的线性模型。假设我们有一组数据,表示肿瘤的大小和是否为恶性:

#示例数据

importnumpyasnp

X=np.array([[1.1],[1.3],[1.5],[2.1],[2.3],[2.5]])

y=np.array([0,0,0,1,1,1])#0表示良性,1表示恶性

#使用逻辑回归模型

fromsklearn.linear_modelimportLogisticRegression

model=LogisticRegression()

model.fit(X,y)

#预测新数据点

new_data=np.array([[1.7]])

prediction=model.predict(new_data)

print(预测结果:,prediction[0])

3特征选择与工程

特征选择是选择对模型预测最有用的特征的过程。特征工程涉及创建新的特征或转换现有特征,以提高模型性能。

3.1示例:特征选择

使用递归特征消除(RFE)进行特征选择:

#示例数据

importnumpyasnp

X=np.array([[1,2,3],[4,5,6],[7,8,9]])

y=np.array([0,1,1])

#使用RFE进行特征选择

fromsklearn.feature_selectionimportRFE

fromsklearn.linear_modelimportLogisticRegression

model=LogisticRegression()

rfe=RFE(model,n_features_to_select=2)

rfe.fit(X,y)

#输出选择的特征

print(选择的特征:,rfe.support_)

4模型评估与选择

模型评估涉及使用指标来衡量模型的性能。常见的评估指标包括准确率、精确率、召回率和F1分数。

4.1示例:模

您可能关注的文档

文档评论(0)

kkzhujl + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档