IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 系统运维 -> docker+scrapy-splash+代理池的方法 -> 正文阅读

[系统运维]docker+scrapy-splash+代理池的方法

docker+scrapy-splash+代理池的方法

看了很多网站都没有把这种方法说透,自己摸索了一天,终于明白了如何在docker环境下对scrapy-splash搭代理池。

根据scrapy官方文档对挂代理的描述 ,应该在本地创建这样一个文件夹my-proxy-profiles-dir,然后在该文件夹内放上你的代理文件,如果是代理池 那就多个文件。

docker run -p 8050:8050 \
      -v <my-proxy-profiles-dir>:/etc/splash/proxy-profiles \
      scrapinghub/splash

例如 ,我在桌面创建了一个叫proxy的文件夹,里面有proxy1,proxy2…proxy10等,那么上面的命令就应该是

docker run -p 8050:8050 \
      -v <C:\Users\hhh\Desktop\proxy>:/etc/splash/proxy-profiles \
      scrapinghub/splash

然后proxy的格式应该是下面的,host,prot就是你买的代理的ip和端口,下面就是账号密码,还有类型是http还是SOCK5,这些搞对就可以了

[proxy]

; required
host=proxy.crawlera.com
port=8010

; optional, default is no auth
username=username
password=password

; optional, default is HTTP. Allowed values are HTTP and SOCKS5
type=HTTP

[rules]
; optional, default ".*"
whitelist=
    .*mywebsite\.com.*

; optional, default is no blacklist
blacklist=
    .*\.js.*
    .*\.css.*
    .*\.png

这样代理池就搭好了,那么如何使用这些代理呢,首先是scrapy的settings ,加上如下的命令

SPLASH_URL = 'http://localhst:8050'
DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'

然后就是这个DOWNLOADER_MIDDLEWARES,记得加上你自己的下载中间件,他的优先级是724还是大于725的你自己去测一下,我电脑不在身边忘记了,然后在你的下载中间件里面的process_request函数加上这么一段

def process_request(self, request, spider):
	if request.meta.get('splash'):
		request.meta['splash']['args']['proxy']=self.select_proxy_for_splash()
	else:
		request.meta['proxy']=self.select_proxy()

这段代码含义如下:
如果当前的request请求含有splash,说明他是个带有splash的请求,他的代理应该是在[‘splash’][‘args’][‘proxy’]方法里,self.select_proxy_for_splash()的返回的应该是上面说的proxy1的文件名,因此可以把这些放在数据库里,每次去查库随机出来一个,这样代理池好维护,否则按scrapy的方法来。
好了 这样代理池就搭好了,如果有什么写的不对的地方,欢迎各位批评指正

  系统运维 最新文章
配置小型公司网络WLAN基本业务(AC通过三层
如何在交付运维过程中建立风险底线意识,提
快速传输大文件,怎么通过网络传大文件给对
从游戏服务端角度分析移动同步(状态同步)
MySQL使用MyCat实现分库分表
如何用DWDM射频光纤技术实现200公里外的站点
国内顺畅下载k8s.gcr.io的镜像
自动化测试appium
ctfshow ssrf
Linux操作系统学习之实用指令(Centos7/8均
上一篇文章      下一篇文章      查看所有文章
加:2021-12-10 11:27:06  更:2021-12-10 11:27:19 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/16 4:20:37-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码