前因后果
公司有人阳了,今天在家上班,突然小姨子就问我有没有baidu文库会员,想下载点东西,我心想这还要会员?用Python不是分分钟的事情!
然后我非常自信的告诉她不用会员随便下载,结果她顺势想来我家,还问我她姐姐在不在家,趁我一个人在家过来想干嘛?本着男孩子一个人在家要好好保护自己的原则,于是我过段拒绝了她!
兄弟们我做的对吗?
正文
牛逼吹完了,咱们来开始今天的内容,咱们不仅要强制复制粘贴,还要自动保存到world文档,就问你刑不刑!
需要的模块
requests
docx
re
除了 re 模块,前面两个都是第三方模块,需要手动安装,win+r 打开运行框输入cmd,点击确定弹出命令提示符窗口输入 pip install 加上模块名即可。
docx 需要加上Python ,pip install python-docx
流程思路
基本思路流程
一、分析数据来源
找文档数据内容, 是在那个url里面生成的,通过开发者工具进行抓包分析。
- 打开开发者工具: F12 / 鼠标右键点击检查选择network
- 刷新网页: 让本网页数据内容重新加载一遍,如果你是非VIP账号, 看数据, 图片形式 —> 把数据<图片> 获取下来 —> 做文字识别;
- 分析文库数据内容,,图片所在地址;
- 获取所有图片内容: 文库数据 --> 图片形式 —> 所有图片内容保存下载
- 文字识别, 把图片文字识别出来, 保存word文档里面
二、代码实现步骤
-
发送请求, 模拟浏览器对于url地址发送请求 图片数据包: -
获取数据, 获取服务器返回响应数据 开发者工具: response -
解析数据, 提取图片链接地址 -
保存数据, 把图片内容保存到本地文件夹 -
做文字识别, 识别文字内容 -
把文字数据信息, 保存word文档里面
代码展示
导入模块
import requests
from pprint import pprint
import base64
import os
from docx import Document
import re
import json
文字识别: 1. 注册一个百度云API账号 2. 创建应用 并且去免费领取资源 3. 在技术文档里面 Access Token获取 4. 调用API接口做文字识别
client_id 为官网获取的AK, client_secret 为官网获取的SK
host = 'https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=Gu7BGsfoKFZjLGvOKP7WezYv&client_secret=rGa2v2FcVnxBDFlerSW5H0D2eO7nRxdp'
response = requests.get(host)
access_token = response.json()['access_token']
通用文字识别(高精度版)
request_url = "https://aip.baidubce.com/rest/2.0/ocr/v1/accurate_basic"
二进制方式打开图片文件
f = open(file, 'rb')
img = base64.b64encode(f.read())
params = {"image":img}
request_url = request_url + "?access_token=" + access_token
headers = {'content-type': 'application/x-www-form-urlencoded'}
json_data = requests.post(request_url, data=params, headers=headers).json()
列表推导式
words = '\n'.join([i['words'] for i in json_data['words_result']])
return words
读取文件夹里面所有图片内容
content_list = []
files = os.listdir('img\\')
for file in files:
filename = 'img\\' + file
words = get_content(file=filename)
print(words)
content_list.append(words)
保存word文档里面
doc = Document()
content = '\n'.join(content_list)
doc.add_paragraph(content)
doc.save('data.docx')
发送请求,模拟浏览器对于url地址发送请求。
请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
html_data = requests.get(url=link, headers=headers).text
json_data = json.loads(re.findall('var pageData = (.*?);', html_data)[0])
pprint(json_data)
for j in json_data['aggInfo']['docList']:
name = j['title']
score = j['score']
viewCount = j['viewCount']
downloadCount = j['downloadCount']
docId = j['docId']
确定请求链接
url = 'https://wenku.baidu.com/gsearch/rec/pcviewdocrec'
请求参数
data = {
'docId': docId,
'query': name,
'recPositions': ''
}
请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
发送请求
response = requests.get(url=url, params=data, headers=headers)
获取数据, 获取服务器返回响应数据
- response.json() 获取响应json字典数据, 但是返回数据必须是完整json数据格式 花括号 {}
- response.text 获取响应文本数据, 返回字符串 任何时候都可以, 但是基本获取网页源代码的时候
- response.content 获取响应二进制数据, 返回字节 保存图片/音频/视频/特定格式文件
解析数据, 提取图片链接地址
字典取值: 键值对 根据冒号左边内容[键], 提取冒号右边的内容[值]
for循环遍历, 把列表里面元素一个一个提取出来
num = 1
for index in response.json()['data']['relateDoc']:
pic = index['pic']
print(pic)
保存数据 发送请求 + 获取数据 二进制数据内容
img_content = requests.get(url=pic, headers=headers).content
with open('图片\\' + str(num) + '.jpg', mode='wb') as f:
f.write(img_content)
print(num)
num += 1
效果展示
world文档
最后
兄弟们学习python,有时候不知道怎么学,从哪里开始学。掌握了基本的一些语法或者做了两个案例后,不知道下一步怎么走,不知道如何去学习更加高深的知识。 那么对于这些大兄弟们,我准备了大量的免费视频教程,PDF电子书籍,直接在文末名片自取即可!包括本文源代码!
好了不说了,今天的分享就这里结束了,小姨子过来找我麻烦了!兄弟们下次再见!
|