- 1、本文档共8页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
关于Python有一句名言:不要重复造轮子。但是问题有三个:
1、你不知道已经有哪些轮子已经造好了,哪个适合你用。有名有姓的的著名轮子就400多个,更别说没名没姓自己在制造中的轮子。
2、确实没重复造轮子,但是在重复制造汽车。包括好多大神写的好几百行代码,为的是解决一个Excel本身就有的成熟功能。
3、很多人是用来抓图,数据,抓点图片、视频、天气预报自娱自乐一下,然后呢?抓到大数据以后做什么用呢?比如某某啤酒卖的快,然后呢?比如某某电影票房多,然后呢?
我认为用Python应该能分析出来,这个现实的世界属于政治家,商业精英,艺术家,农民,而绝对不会属于Python程序员,纵使代码再精彩也没什么用。
以下是经过Python3.6.4调试通过的代码,与大家分享:
1、抓取知乎图片
2、听两个聊天机器人互相聊天(图灵、青云、小i)
3、AI分析唐诗的作者是李白还是杜
4、彩票随机生成35选7
5、自动写检讨书
6、屏幕录相机
7、制作Gif动图
1、抓取知乎图片,只用30行代码:
import re
from selenium import webdriver
import time
import urllib.request
driver = webdriver.Chrome()
driver.maximize_window()
driver.get(/question
i = 0
while i 10:
driver.execute_script(window.scrollTo(0, document.body.scrollHeight);)
time.sleep(2)
try:
driver.find_element_by_css_selector(button.QuestionMainAction).click()
print(page + str(i))
time.sleep(1)
except:
break
result_raw = driver.page_source
content_list = re.findall(img src=\(.+?)\ , str(result_raw))
n = 0
while n len(content_list):
i = time.time()
local = (r%s.jpg % (i))
urllib.request.urlretrieve(content_list[n], local)
print(编号: + str(i))
n = n + 1
2、没事闲的时候,听两个聊天机器人互相聊天:
from time import sleep
import requests
s = input(请主人输入话题:)
while True:
resp = requests.post(/openapi/api,data={key: 4fede3c4384846b9a7d0456a5e1e2943, info: s, })
resp = resp.json()
sleep(1)
print(小鱼:, resp[text])
s = resp[text]
resp = requests.get(/api.php, {key: free, appid: 0, msg: s})
resp.encoding = utf8
resp = resp.json()
sleep(1)
print(菲菲:, resp[content])
网上还有一个据说智商比较高的小i机器人,用爬虫的功能来实现一下:
import urllib.request
import re
while True:
x = input(主人:)
x = urllib.parse.quote(x)
link = urllib.request.urlopen(
/robot/webrobot?callback=__webrobot_processMsgdata=%7B%22sessionId%22%3A%22ff725c236e5245a3ac825b2dd88a7501%22%2C%22robotId%22%3A%22webbot%22%2C%22userId%22%3A%227cd29df3450745fbbdcf1a462e6c58e6%22%2C%22body%22%3A%7B%22content%22%3A%22 + x + %22%7D%2C%22type%22%3A%22txt%22%7D)
html_doc = link.read().decode()
reply_list = re.findall(r\content\:\(.+?)\\r\\n\, html_doc)
print(小i: + r
文档评论(0)