1.写爬虫的你肯定有类似的经历
场景一:
?
场景二:
-
找好目标网站 -
兴高采烈的打开F12,观察一番 -
网站没有直接返回数据,而是html啥的,简单,解析html呗。 -
xpath,css selector ,re给我盘他。 -
代码一顿噼里啪啦,搞定!
?
场景三:
?
到这里就已经能应对90%的情况了。
?
其实写爬虫就像回合制游戏,你一直面对这个boss,用各种办法升级你的爬虫,最后搞定他。
A:网站,B:你
-
B:请求网站失败 -
B:数据解析有问题 -
B:分析哪里有问题,爬的过程有问题,还是洗的过程有问题(不断反复调试,直到ok为止) -
B:速度太慢,上多线程,协程。 -
A:速度太快,被干掉。 -
B:上代理,代理呢免费的又层次不齐,是不是要考虑整个代理池,付费的又没钱。 -
最后就是程序的健壮性问题,还有根据一些功能定制化了。
那有没有什么好的插件可以帮帮我呢,毕竟我只是想要简单爬点数据呀!!!
?
2.干货环节
简单思考下:用浏览器爬数据,那当然要用浏览器插件才靠谱呀。
?
那接下来推荐几款我用的比较舒服的插件。
Web Scaper
这真的是个好东西,免费还好用
免费的,但只有一个线程,但也够用了。如果需要更多的服务,比如代理呀,并发也,可以去注册个账号,购买套餐。
?
?
- 打开F12,可以看到多了一个web scraper,这里以acg动漫网为例。
?
?
?
添加图片注释,不超过 140 字(可选)
?
如果有人愿意看的话,下一期我可以出一份详细教程。
?
这真的是爬取图片神器,不是我吹。
?
网站直接右键,提取图片!!!就是怎么方便。
?
提取的图片可以自行筛选,选择下载。
?
然后点击下载就能全下载下来啦!
3.最后的最后
有个这两个工具,相信一般网站已经难不倒你了,即使不会写代码也不要紧!
?
|