网站大量收购闲置独家精品文档,联系QQ:2885784924

网络空间安全概论 实验7 网络爬虫.docx

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

实验七网络爬虫

一、爬虫工作原理

若是把互联网比作一张大网,爬虫(即网络爬虫)便是在网上爬行的蜘蛛。把网中的节点比作一个个网页,那么蜘蛛爬到一个节点处就相当于爬虫访问了一个页面,获取了其信息。可以把网页与网页之间的链接关系比作节点间的连线,蜘蛛通过一个节点后,顺着节点连线继续爬行,到达下一个节点,意味着爬虫可以通过网页之间的链接关系继续获取后续的网页,当整个网站涉及的页面全部被爬虫访问到后,网站的数据就被抓取下来了。

二、用到的相关工具包(Python)

request:用于发送请求与接收结果

re:用来使用正则表达式

csv:用来将获得的数据写入csv文件中,在后面的数据处理更加方便读取

三、实验过程

1、首先获取需要爬取页面的URL,这里就是豆瓣了:/top250

2、通过查看豆瓣的网页源代码发现,该网页是由服务器渲染的HTML,所以选择使用正则来处理。

3、通过firefox自带的抓包工具发现请求方式为get。

4、由于豆瓣经常被爬,所以它设置了反爬,不过仅是对UA的检查,找到一般浏览器访问豆瓣网页所携带的UA,写入到request中即可,还是刚才抓包的文件,最下面有UA即User-Agent。

5、接下来写正则re的预编译,像是豆瓣这样的大网站,前端编写的规定是很严格的,比如有电影信息的div中的class等是与其他构建网页组件不一样的,这也方便了正则的应用。如该代码,电影名都在span这个标签里面,而且有特定的class,故此凭借这个span与class可以快速定位电影名称与获取。

6、csv文件写入。

7、最后编写爬虫,并将数据进行处理,把结果写入csv。

四、结果展示

由于250行太长,只截取了部分

姓名:李亚栋

学号:T31

文档评论(0)

balala11 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档