网站大量收购闲置独家精品文档,联系QQ:2885784924

Python编程基础与应用 第2版 课习题答案 李方园 第7章答案.docx

Python编程基础与应用 第2版 课习题答案 李方园 第7章答案.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

7.1

参考一下表达方式(不一定相同)

假设一个场景,那就是把要传输数据的一方视为某个公司的经理,网络传输被视为这个经理要把一件事情告诉另一个公司的经理。

?网络的A端:

1、应用层:A公司经理把他想要告诉B公司经理的事情用嘴讲了出来。

2、表示层:秘书就把A公司经理说的事情翻译成为英文然后写在了纸上。

3、会话层:行政的职员把秘书写的这封信,装到了信封封装好了,写上了信封的信息。

4、传输层:A邮局的职工把这封信取走。

5、网络层:A邮局的分派的职工,把这封信分派到指定送信区域。

6、数据链路层:A邮局的装箱的职工,就把一同送往这个区域的信封装到一个木箱子里,然后送到A邮局物流站。

7、物理层:A邮局的物流职工把木箱运到铁路

这里的铁路就是网络连接物理介质

网络的B端:

7、物理层:B邮局的物流职工把木箱从铁路运到邮局的物流站。

6、数据链路层:B邮局拆箱的职工把物流站的木箱拆箱,然后把所有的信件取出来。

5、网络层:B邮局的分派的职工,把这封信分派到指定送信区域。

4、传输层:B邮局的职工把这封信送到B公司。

3、会话层:B公司行政的职员把公司的信件整理并且拆封信件(假设这是公司允许的情况下)并送到各自部门的秘书手里。

2、表示层:B公司秘书把信上的英文翻译成为中文。

1、应用层:B公司经理听秘书转述给他这封信的内容。

到此为止一个完整的通过这7层的OSI网络通讯顺利完成。

7.2

url由资源类型、存放资源的主机域名、资源文件名等构成,其一般语法格式为(带方括号[]的为可选项):

protocol://hostname[:port]/path/[;parameters][?query]#fragment

7.3

如图,按右键,查看网页源代码。或者直接输入:view-source:/beijing/

必威体育精装版上架的车:

找到今日推荐所在的源代码,紧跟其后的就是第一辆二手车。

divclass=list-photo-infoh4class=car-series宝马5系2018款改款530Li尊享型M运动套装/h4

p3.30万公里/2018-4/span北京/span/pdivclass=price-boxfn-clear

spanclass=price43.30emclass=unit万/em/spansclass=original-price56.43万/s

/div/div/a

spanclass=tags/span/liliclass=list-photo-liaeventkey=c_pc_homepage_jinrituijian_carname=trackinfoid418608^1^2href=/dealer/418608html#pvareaid=100496#userpid=110000#usercid=110100target=_blankdivclass=imgimgclass=photoname=lazyloadImgsrc=///2scimg/pc/webdefault-220x165.jpgsrc2=//2/escimg/g13/M08/73/80/f_440x0_0_q87_autohomecar__ChxkrmDodxCAVCfwAAFLYtkjVtQ608.jpgalt=/div

7.4

参考程序(在Python3.8版本通过)

苏州天气网址为/weather/101190401.shtml

frombs4importBeautifulSoup

importurllib.request

importrandom

#数据地址,从浏览器复制过来

url=/weather/101190401.shtml

req=urllib.request.urlopen(url)

content=req.read().decode(utf-8)

soup=BeautifulSoup(content,html.parser)

#分析得ulclass=tclearfix标签下记录了想要的数据,因此只需要解析这个标签即可

ul_tag=soup.find(ul,tclearfix)#利用css查找

#取出七天数据

li_tag=ul_tag.findAll(li)

fortaginli_tag:

print(t

文档评论(0)

xiaobao + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档