本篇博客是第四遍学习协程相关知识,我们在之前内容积累的基础上,新增加一个异步请求库,该库名称为 aiohttp 。
为了给大家演示 aiohttp 如何与 asyncio 进行搭配,本文采用代码对比形式进行展示。
异步协程主要用于提高 I/O 操作的效率,所以本次采集的站点依旧以图片为主。
初识 aiohttp 库 - 案例为网易公开课
aiohttp 是一个异步的 HTTP 客户端/服务端框架,它基于 asyncio 模块实现,在《爬虫 120 例》专栏中主要用其客户端能力,提高爬虫的采集速度。
接下来我们将该库与 requests 模块进行对比学习。
requests 模块同步采集 20 次网易公开课
import requests
import time
def get_html():
res = requests.get("https://open.163.com/")
print(len(res.text))
start_time = time.perf_counter()
for i in range(20):
get_html()
print("requests 同步采集消耗时间为:", time.perf_counter() - start_time)
aiohttp 库+asyncio 异步采集 20 次网易公开课
import time
import asyncio
import aiohttp
async def get_html():
async with aiohttp.request('GET', "https://open.163.com/") as res:
return await res.text()
async def main():
tasks = [asyncio.ensure_future(get_html()) for i in range(20)]
dones, pendings = await asyncio.wait(tasks)
for task in dones:
print(len(task.result()))
if __name__ == '__main__':
start_time = time.perf_counter()
asyncio.run(main())
print("aiohttp 异步采集消耗时间为:", time.perf_counter() - start_time)
得到的结论 requests 模块采集 30 遍耗时 4s ,而 aiohttp 库耗时 0.3s ,相差将近 10 倍。
aiohttp 系统学习直接参考官方文档即可,非常清楚:https://docs.aiohttp.org/en/stable/,注意该模块需要安装,非内置模块。
在本系列专栏中,aiohttp 只会用在客户端,所以仅说明该部分知识点。
请求一个网站,并返回其数据
import aiohttp
import asyncio
async def main():
async with aiohttp.ClientSession() as session:
async with session.get("http://httpbin.org/get") as resp:
print(resp.status)
print(await resp.text())
asyncio.run(main())
在 main() 函数中,存在两个对象,第一个是 ClientSession ,第二个没有显式标记,它是 ClientResponse ,这两个对象分别对应 请求对象 与 响应对象 。
学习 aiohttp 可以对比 requests 进行学习,例如 ClientSession 对象具备不同的 HTTP 请求方法,分别是 get ,post ,put ,post ,delete ,head ,options ,patch ,其中主要用 get 与 post 。
如果你不需要保留请求的会话状态,直接用下述代码即可,通过 aiohttp.request 直接发送请求获取响应。
import aiohttp
import asyncio
async def main():
async with aiohttp.request("GET", "http://httpbin.org/get") as resp:
html = await resp.text(encoding="utf-8")
print(html)
asyncio.run(main())
使用 ClientSession 的好处不用每次请求都创建一个 session ,通过第一次创建的 session 对象可以执行所有的请求。
所以在本文的开篇代码,可进行如下修改,不过时间上并无太大变化。
import time
import asyncio
import aiohttp
async def get_html(client):
async with client.get("https://open.163.com/") as resp:
return await resp.text()
async def main():
async with aiohttp.ClientSession() as client:
tasks = [asyncio.ensure_future(get_html(client)) for i in range(20)]
dones, pendings = await asyncio.wait(tasks)
for task in dones:
print(len(task.result()))
if __name__ == '__main__':
start_time = time.perf_counter()
asyncio.run(main())
print("aiohttp 异步采集消耗时间为:", time.perf_counter() - start_time)
如果希望请求到图片类二进制数据,将上述代码中 await resp.text() 部分,修改为 await resp.read() 即可。 如果目标数据源是 JSON 格式的数据,使用 resp.json() 即可。
aiohttp 发送请求时的参数说明
由于不同的请求方式,参数差不多,所以下述内容都使用 get 请求进行说明。
params :该参数用于构造 URL,可以传递的格式有 [("var1",1),("var2",2)] ,{"var1": 1,"var2": 2} ,var1=1&var2=2 ;headers :请求头;cookies :请求时携带的 Cookie ;data :用于 POST 请求,参数格式 {"var1": 1,"var2": 2} ;timeout :超时设置;proxy :代理设置;
到这里,初识部分已经说明完毕,接下来就进入到实际的编码环节。
bensound 爬虫编写
本次要采集的目标站点是:https://www.bensound.com/royalty-free-music。 该页面包含非常多的 mp3 文件,本篇博客就对其进行采集。 经过分析得知,mp3 的下载地址是:
https://www.bensound.com/bensound-music/bensound-allthat.mp3
该地址可以通过列表页相关数据拼凑而来,通过开发者工具得到 mp3 如下封面图地址,再通过 python 字符串操作,获取上述链接。
https://www.bensound.com/bensound-img/allthat.jpg
转换代码如下:
img_url = "https://www.bensound.com/bensound-img/allthat.jpg"
name = img_url[img_url.rfind("/") + 1:img_url.rfind(".")]
mp3_url = f"https://www.bensound.com/bensound-music/bensound-{name}.mp3"
print(mp3_url)
转换代码编写完毕,先测试一下通过 requests 模块获取 20 页数据消耗的时间。
import time
import asyncio
import aiohttp
from bs4 import BeautifulSoup
import lxml
async def get_html(client, url):
print("正在采集", url)
async with client.get(url) as resp:
html = await resp.text()
soup = BeautifulSoup(html, 'lxml')
divs = soup.find_all(attrs={'class': 'img_mini'})
mp3_urls = [get_mp3_url("https://www.bensound.com/" + div.a.img["src"]) for div in divs]
return mp3_urls
def get_mp3_url(img_url):
img_url = img_url
name = img_url[img_url.rfind("/") + 1:img_url.rfind(".")]
mp3_url = f"https://www.bensound.com/bensound-music/bensound-{name}.mp3"
return mp3_url
async def main(urls):
async with aiohttp.ClientSession() as client:
tasks = [asyncio.ensure_future(get_html(client, urls[i])) for i in range(len(urls))]
dones, pendings = await asyncio.wait(tasks)
print("异步执行完毕,开始输出对应结果:")
for task in dones:
print(task.result())
if __name__ == '__main__':
url_format = "https://www.bensound.com/royalty-free-music/{}"
urls = [url_format.format(i) for i in range(1, 21)]
start_time = time.perf_counter()
asyncio.run(main(urls))
print("aiohttp 异步采集消耗时间为:", time.perf_counter() - start_time)
上述代码,运行过程如下所示。 接下来的代码就变得非常简单了,与前一篇博客内容基本一致。
import time
import asyncio
import aiohttp
from bs4 import BeautifulSoup
import lxml
async def get_html(client, url):
print("正在采集", url)
async with client.get(url, timeout=5) as resp:
html = await resp.text()
soup = BeautifulSoup(html, 'lxml')
divs = soup.find_all(attrs={'class': 'img_mini'})
mp3_urls = [get_mp3_url("https://www.bensound.com/" + div.a.img["src"]) for div in divs]
return mp3_urls
def get_mp3_url(img_url):
img_url = img_url
name = img_url[img_url.rfind("/") + 1:img_url.rfind(".")]
mp3_url = f"https://www.bensound.com/bensound-music/bensound-{name}.mp3"
return mp3_url
async def get_mp3_file(client, url):
print("正在采集 mp3 文件", url)
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36",
"Referer": "https://www.bensound.com/royalty-free-music"
}
mp3_file_name = url[url.rfind('-') + 1:url.rfind('.')]
print(mp3_file_name)
async with client.get(url, headers=headers) as resp:
content = await resp.read()
with open(f'./mp3/{mp3_file_name}.mp3', "wb") as f:
f.write(content)
return (url, "success")
async def main(urls):
timeout = aiohttp.ClientTimeout(total=600)
connector = aiohttp.TCPConnector(limit=50)
async with aiohttp.ClientSession(connector=connector, timeout=timeout) as client:
tasks = [asyncio.ensure_future(get_html(client, urls[i])) for i in range(len(urls))]
dones, pendings = await asyncio.wait(tasks)
print("异步执行完毕,开始输出对应结果:")
all_mp3 = []
for task in dones:
all_mp3.extend(task.result())
totle = len(all_mp3)
print("累计获取到【", totle, "】个 MP3 文件")
print("_" * 100)
print("准备下载 MP3 文件")
totle_page = totle // 10 if totle % 10 == 0 else totle // 10 + 1
for page in range(0, totle_page):
print("正在下载第{}页 MP3 文件".format(page + 1))
start_page = 0 if page == 0 else page * 10
end_page = (page + 1) * 10
print("待下载地址")
print(all_mp3[start_page:end_page])
mp3_download_tasks = [asyncio.ensure_future(get_mp3_file(client, url)) for url in
all_mp3[start_page:end_page]]
mp3_dones, mp3_pendings = await asyncio.wait(mp3_download_tasks)
for task in mp3_dones:
print(task.result())
if __name__ == '__main__':
url_format = "https://www.bensound.com/royalty-free-music/{}"
urls = [url_format.format(i) for i in range(1, 5)]
start_time = time.perf_counter()
asyncio.run(main(urls))
print("aiohttp 异步采集消耗时间为:", time.perf_counter() - start_time)
运行截图如下所示,由于 mp3 文件比较大,所以将采集总页数设置为 5 。
上述代码还进行了 ClientSession 的全局设置,代码如下。
timeout = aiohttp.ClientTimeout(total=600)
connector = aiohttp.TCPConnector(limit=50)
设置上述参数的原因,由于部分网站的服务器限制单个 IP 建立并行 TCP 连接数量,aiohttp 默认设置连接数量为 100,可以手动调整。 超时设置也是由于 aiohttp 默认设置的是 300S(即 5 分钟),如果一个 TCP 连接的持续时间超过这个时间,服务器自动断开该连接。
写在后面
如需完整代码,请查看评论区置顶评论。
今天是持续写作的第 244 / 365 天。 期待 关注,点赞、评论、收藏。
更多精彩
《爬虫 100 例,专栏销售中,买完就能学会系列专栏》
|