- 1、本文档共6页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
7.1
参考一下表达方式(不一定相同)
假设一个场景,那就是把要传输数据的一方视为某个公司的经理,网络传输被视为这个经理要把一件事情告诉另一个公司的经理。
?网络的A端:
1、应用层:A公司经理把他想要告诉B公司经理的事情用嘴讲了出来。
2、表示层:秘书就把A公司经理说的事情翻译成为英文然后写在了纸上。
3、会话层:行政的职员把秘书写的这封信,装到了信封封装好了,写上了信封的信息。
4、传输层:A邮局的职工把这封信取走。
5、网络层:A邮局的分派的职工,把这封信分派到指定送信区域。
6、数据链路层:A邮局的装箱的职工,就把一同送往这个区域的信封装到一个木箱子里,然后送到A邮局物流站。
7、物理层:A邮局的物流职工把木箱运到铁路
这里的铁路就是网络连接物理介质
网络的B端:
7、物理层:B邮局的物流职工把木箱从铁路运到邮局的物流站。
6、数据链路层:B邮局拆箱的职工把物流站的木箱拆箱,然后把所有的信件取出来。
5、网络层:B邮局的分派的职工,把这封信分派到指定送信区域。
4、传输层:B邮局的职工把这封信送到B公司。
3、会话层:B公司行政的职员把公司的信件整理并且拆封信件(假设这是公司允许的情况下)并送到各自部门的秘书手里。
2、表示层:B公司秘书把信上的英文翻译成为中文。
1、应用层:B公司经理听秘书转述给他这封信的内容。
到此为止一个完整的通过这7层的OSI网络通讯顺利完成。
7.2
url由资源类型、存放资源的主机域名、资源文件名等构成,其一般语法格式为(带方括号[]的为可选项):
protocol://hostname[:port]/path/[;parameters][?query]#fragment
7.3
如图,按右键,查看网页源代码。或者直接输入:view-source:/beijing/
必威体育精装版上架的车:
找到今日推荐所在的源代码,紧跟其后的就是第一辆二手车。
divclass=list-photo-infoh4class=car-series宝马5系2018款改款530Li尊享型M运动套装/h4
p3.30万公里/2018-4/span北京/span/pdivclass=price-boxfn-clear
spanclass=price43.30emclass=unit万/em/spansclass=original-price56.43万/s
/div/div/a
spanclass=tags/span/liliclass=list-photo-liaeventkey=c_pc_homepage_jinrituijian_carname=trackinfoid418608^1^2href=/dealer/418608html#pvareaid=100496#userpid=110000#usercid=110100target=_blankdivclass=imgimgclass=photoname=lazyloadImgsrc=///2scimg/pc/webdefault-220x165.jpgsrc2=//2/escimg/g13/M08/73/80/f_440x0_0_q87_autohomecar__ChxkrmDodxCAVCfwAAFLYtkjVtQ608.jpgalt=/div
7.4
参考程序(在Python3.8版本通过)
苏州天气网址为/weather/101190401.shtml
frombs4importBeautifulSoup
importurllib.request
importrandom
#数据地址,从浏览器复制过来
url=/weather/101190401.shtml
req=urllib.request.urlopen(url)
content=req.read().decode(utf-8)
soup=BeautifulSoup(content,html.parser)
#分析得ulclass=tclearfix标签下记录了想要的数据,因此只需要解析这个标签即可
ul_tag=soup.find(ul,tclearfix)#利用css查找
#取出七天数据
li_tag=ul_tag.findAll(li)
fortaginli_tag:
print(t
您可能关注的文档
- Python编程基础与应用 第2版 课习题答案 李方园 第1章答案.docx
- Python编程基础与应用 第2版 课习题答案 李方园 第2章答案.docx
- Python编程基础与应用 第2版 课习题答案 李方园 第3章答案.docx
- Python编程基础与应用 第2版 课习题答案 李方园 第4章答案.docx
- Python编程基础与应用 第2版 课习题答案 李方园 第5章答案.docx
- Python编程基础与应用 第2版 课习题答案 李方园 第6章答案.docx
- Python编程基础与应用 第2版 课习题答案汇总 李方园 第1--7章.docx
- 名老中医焦树德临床经验 .pdf
- 国有工矿棚户区改造项目房屋征收补偿社会稳定风险评估报告 .pdf
- 国家级核心医学期刊汇总 .pdf
文档评论(0)