系列文章目录
python爬虫目录
前言
摘录自B站对应课程笔记 不愧是清华大佬!把Python网络爬虫讲得如此简单明了!从入门到精通保姆级教程(建议收藏) 以下是本篇文章正文内容,下面案例可供参考
一、多线程介绍
多线程是为了同步完成多项任务,通过提高资源使用效率来提高系统的效率。线程是在同一时间需要完成多项任务的时候实现的。 最简单的比喻多线程就像火车的每一节车厢,而进程则是火车。车厢离开火车是无法跑动的,同理火车也可以有多节车厢。多线程的出现就是为了提高效率。同时它的出现也带来了一些问题。
二、threading模块介绍
threading模块是python中专门提供用来做多线程编程的模块。threading模块中最常用的类是Thread。以下看一个简单的多线程程序:
import threading
import time
def coding():
for x in range(3):
print('%s正在写代码' % x)
time.sleep(1)
def drawing():
for x in range(3):
print('%s正在画图' % x)
time.sleep(1)
def single_thread():
coding()
drawing()
def multi_thread():
t1 = threading.Thread(target=coding)
t2 = threading.Thread(target=drawing)
t1.start()
t2.start()
if __name__ == '__main__':
multi_thread()
1、查看线程数
使用threading.enumerate() 函数便可以看到当前线程的数量。
2、查看当前线程的名字
使用threading.current_thread() 可以看到当前线程的信息。
3、继承自threading.Thread类
为了让线程代码更好的封装。可以使用threading模块下的Thread类,继承自这个类,然后实现run方法,线程就会自动运行run方法中的代码。示例代码如下:
import threading
import time
class CodingThread(threading.Thread):
def run(self):
for x in range(3):
print('%s正在写代码' % threading.current_thread())
time.sleep(1)
class DrawingThread(threading.Thread):
def run(self):
for x in range(3):
print('%s正在画图' % threading.current_thread())
time.sleep(1)
def multi_thread():
t1 = CodingThread()
t2 = DrawingThread()
t1.start()
t2.start()
if __name__ == '__main__':
multi_thread()
4、多线程共享全局变量的问题
多线程都是在同一个进程中运行的。因此在进程中的全局变量所有线程都是可共享的。这就造成了一个问题,因为线程执行的顺序是无序的。有可能会造成数据错误。比如以下代码:
import threading
tickets = 0
def get_ticket():
global tickets
for x in range(1000000):
tickets += 1
print('tickets:%d'%tickets)
def main():
for x in range(2):
t = threading.Thread(target=get_ticket)
t.start()
if __name__ == '__main__':
main()
5、锁机制
为了解决以上使用共享全局变量的问题。threading提供了一个Lock类,这个类可以在某个线程访问某个变量的时候加锁,其他线程此时就不能进来,直到当前线程处理完后,把锁释放了,其他线程才能进来处理。示例代码如下:
import threading
VALUE = 0
gLock = threading.Lock()
def add_value():
global VALUE
gLock.acquire()
for x in range(1000000):
VALUE += 1
gLock.release()
print('value:%d'%VALUE)
def main():
for x in range(2):
t = threading.Thread(target=add_value)
t.start()
if __name__ == '__main__':
main()
三、Lock版本生产者和消费者模式
生产者和消费者模式是多线程开发中经常见到的一种模式。生产者的线程专门用来生产一些数据,然后存放到一个中间的变量中。消费者再从这个中间的变量中取出数据进行消费。但是因为要使用中间变量,中间变量经常是一些全局变量,因此需要使用锁来保证数据完整性。以下是使用threading.Lock 锁实现的“生产者与消费者模式”的一个例子:
import threading
import time
import random
gMoney = 1000
gTotalTime = 10
gTime = 0
gLock = threading.Lock()
class Producer(threading.Thread):
def run(self):
while True:
global gTime
global gMoney
money = random.randint(100,1000)
gLock.acquire()
if gTime < gTotalTime:
gMoney += money
print("{}挣了{}元,现在总共有{}元".format(threading.currentThread(), money, gMoney))
gTime += 1
gLock.release()
time.sleep(0.5)
else:
gLock.release()
break
class Consumer(threading.Thread):
def run(self):
while True:
global gMoney
money = random.randint(100, 1000)
if gTime >= gTotalTime:
break
gLock.acquire()
if money > gMoney:
print("{}想消费{}元,现在只有{}元,消费失败".format(threading.currentThread(), money, gMoney))
else:
gMoney -= money
print("{}消费{}元,现在剩余{}元".format(threading.currentThread(), money, gMoney))
time.sleep(0.5)
gLock.release()
def main():
for i in range(3):
consumer = Consumer(name="消费者{}".format(i))
consumer.start()
for i in range(5):
producer = Producer(name="生产者{}".format(i))
producer.start()
if __name__ == '__main__':
main()
四、Condition版的生产者与消费者模式
Lock版本的生产者与消费者模式可以正常的运行。但是存在一个不足,在消费者中,总是通过while True死循环并且上锁的方式去判断钱够不够。上锁是一个很耗费CPU资源的行为。因此这种方式不是最好的。还有一种更好的方式便是使用threading.Condition 来实现。threading.Condition 可以在没有数据的时候处于阻塞等待状态。一旦有合适的数据了,还可以使用notify相关的函数来通知其他处于等待状态的线程。这样就可以不用做一些无用的上锁和解锁的操作。可以提高程序的性能。首先对threading.Condition相关的函数做个介绍,threading.Condition 类似threading.Lock ,可以在修改全局数据的时候进行上锁,也可以在修改完毕后进行解锁。以下将一些常用的函数做个简单的介绍:
acquire :上锁。release :解锁。wait :将当前线程处于等待状态,并且会释放锁。可以被其他线程使用notify和notify_all函数唤醒。被唤醒后会继续等待上锁,上锁后继续执行下面的代码。notify :通知某个正在等待的线程,默认是第1个等待的线程。notify_all :通知所有正在等待的线程。notify和notify_all不会释放锁。并且需要在release之前调用。
import threading
import time
import random
gMoney = 1000
gTotalTime = 10
gTime = 0
gCondition = threading.Condition()
class Producer(threading.Thread):
def run(self):
while True:
global gTime
global gMoney
money = random.randint(100,1000)
gCondition.acquire()
if gTime >= gTotalTime:
print("{}挣不动了 ".format(threading.currentThread()))
gCondition.release()
break
gMoney += money
print("{}挣了{}元,现在总共有{}元".format(threading.currentThread(), money, gMoney))
gTime += 1
gCondition.notify()
gCondition.release()
time.sleep(0.5)
class Consumer(threading.Thread):
def run(self):
while True:
global gMoney
money = random.randint(100, 1000)
gCondition.acquire()
while money > gMoney:
if gTime >= gTotalTime and money > gMoney:
print("没人挣钱,钱不够,{} 走了".format(threading.currentThread()))
gCondition.release()
return
print("{}想消费{}元,现在只有{}元, 余额不足".format(threading.currentThread(), money, gMoney))
gCondition.wait()
gMoney -= money
print("{}消费{}元,现在剩余{}元".format(threading.currentThread(), money, gMoney))
gCondition.release()
time.sleep(0.5)
def main():
for i in range(3):
consumer = Consumer(name="消费者{}".format(i))
consumer.start()
for i in range(5):
producer = Producer(name="生产者{}".format(i))
producer.start()
if __name__ == '__main__':
main()
五、Queue线程安全队列
在线程中,访问一些全局变量,加锁是一个经常的过程。如果你是想把一些数据存储到某个队列中,那么Python内置了一个线程安全的模块叫做queue模块。Python中的queue模块中提供了同步的、线程安全的队列类,包括FIFO(先进先出)队列Queue,LIFO(后入先出)队列LifoQueue。这些队列都实现了锁原语(可以理解为原子操作,即要么不做,要么都做完),能够在多线程中直接使用。可以使用队列来实现线程间的同步。相关的函数如下: 初始化Queue(maxsize):创建一个先进先出的队列。
qsize() :返回队列的大小。empty() :判断队列是否为空。full() :判断队列是否满了。get(block=True) :从队列中取最后一个数据。True:如果队列为空,阻塞等待put(block=True) :将一个数据放到队列中。True:如果队列满了,阻塞等待
六、使用生产者与消费者模式 多线程 下载表情包
1、单线程
import requests, os, re, time
from urllib import request
from lxml import etree
def parse_page(url):
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
}
response = requests.get(url, headers=headers)
text = response.content.decode("utf-8")
html = etree.HTML(text)
imgs = html.xpath("//div[@class='page-content text-center']//img[@class!='gif']")
for img in imgs:
img_url = img.get("data-original")
alt = img.get("alt")
alt = re.sub(r'[\??,。!!\.\*/\|]', "", alt)
suffix = os.path.splitext(img_url)[1]
filename = os.path.basename(img_url)
if alt:
filename = alt + suffix
print("下载图片:{}".format(filename))
request.urlretrieve(img_url, "images/" + filename)
def main():
for i in range(1, 6):
url = "https://www.doutula.com/photo/list/?page={}".format(i)
parse_page(url)
if __name__ == '__main__':
start_time = time.time()
main()
end_time = time.time()
print("花费时间:{}".format(end_time - start_time))
2、多线程
import requests, os, re, time, threading, queue
from urllib import request
from lxml import etree
class Producer(threading.Thread):
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
}
def __init__(self, page_queue, img_queue,*args, **kwargs):
super(Producer, self).__init__(*args, **kwargs)
self.page_queue = page_queue
self.img_queue = img_queue
def run(self):
while True:
if self.page_queue.empty():
print("解析完成页面, {} 退出".format(threading.currentThread()))
break
url = self.page_queue.get()
self.parse_page(url)
def parse_page(self, url):
response = requests.get(url, headers=self.headers)
text = response.content.decode("utf-8")
html = etree.HTML(text)
imgs = html.xpath("//div[@class='page-content text-center']//img[@class!='gif']")
for img in imgs:
img_url = img.get("data-original")
alt = img.get("alt")
alt = re.sub(r'[\??,。!!\.\*/]', "", alt)
suffix = os.path.splitext(img_url)[1]
filename = os.path.basename(img_url)
if alt:
filename = alt + suffix
self.img_queue.put((img_url, "images/" + filename))
class Consumer(threading.Thread):
def __init__(self, page_queue, img_queue, *args, **kwargs):
super(Consumer, self).__init__(*args, **kwargs)
self.page_queue = page_queue
self.img_queue = img_queue
def run(self):
while True:
if self.page_queue.empty() and self.img_queue.empty():
print("下载完成,{} 退出".format(threading.currentThread()))
break
img_url, filename = self.img_queue.get()
request.urlretrieve(img_url, filename)
print("下载完图片: {}".format(filename))
thread_list = []
def main():
page_queue = queue.Queue(100)
img_queue = queue.Queue(1000)
for i in range(1, 6):
url = "https://www.doutula.com/photo/list/?page={}".format(i)
page_queue.put(url)
for i in range(3):
p = Producer(page_queue, img_queue)
p.start()
thread_list.append(p)
for i in range(5):
c = Consumer(page_queue, img_queue)
c.start()
thread_list.append(c)
if __name__ == '__main__':
start_time = time.time()
main()
for t in thread_list:
t.join()
end_time = time.time()
print("花费时间:{}".format(end_time - start_time))
3、协程版本
下面下载分两步:第一步先下载解析页面获取需要下载图片的url;第二步通过gevent 实现一个进程下 单线程 协程下载图片。因为下载图片是IO 操作,gevent 自动给我进行处理,下载同样图片,多线程大概17s,下面的协程实现大概14~15s,比多线程节省时间,因为线程不断切换需要花费时间。该方法在这个场景效率最高。
from gevent import monkey; monkey.patch_all()
import requests, os, re, time, gevent
from urllib import request
from lxml import etree
def parse_page(url):
url_list = []
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
}
response = requests.get(url, headers=headers)
text = response.content.decode("utf-8")
html = etree.HTML(text)
imgs = html.xpath("//div[@class='page-content text-center']//img[@class!='gif']")
for img in imgs:
img_url = img.get("data-original")
alt = img.get("alt")
alt = re.sub(r'[\??,。!!\.\*/\|]', "", alt)
suffix = os.path.splitext(img_url)[1]
filename = os.path.basename(img_url)
if alt:
filename = alt + suffix
url_list.append((img_url, "images/" + filename))
return url_list
def download_img(url, filename):
print("开始下载图片:{}".format(filename))
request.urlretrieve(url, filename)
def main():
all_url_list = []
for i in range(1, 6):
url = "https://www.doutula.com/photo/list/?page={}".format(i)
urls = parse_page(url)
all_url_list.extend(urls)
print("解析完成,开始下载")
list1 = []
for url, filename in all_url_list:
list1.append(gevent.spawn(download_img, url, filename))
gevent.joinall(list1)
if __name__ == '__main__':
start_time = time.time()
main()
end_time = time.time()
print("花费时间:{}".format(end_time - start_time))
七、GIL全局解释器锁
Python自带的解释器是CPython 。CPython解释器的多线程实际上是一个假的多线程(在多核CPU中,只能利用一核,不能利用多核)。同一时刻只有一个线程在执行,为了保证同一时刻只有一个线程在执行,在CPython解释器中有一个东西叫做GIL(Global Intepreter Lock) ,叫做全局解释器锁。这个解释器锁是有必要的。因为CPython解释器的内存管理不是线程安全的。当然除了CPython解释器,还有其他的解释器,有些解释器是没有GIL锁的,见下面:
Jython :用Java实现的Python解释器。不存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/Jython IronPython :用.net实现的Python解释器。不存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/IronPython PyPy :用Python实现的Python解释器。存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/PyPy
GIL虽然是一个假的多线程。但是在处理一些IO操作(比如文件读写和网络请求)还是可以在很大程度上提高效率的。在IO操作上建议使用多线程提高效率。在一些CPU计算操作上不建议使用多线程,而建议使用多进程。
八、多线程下载百思不得姐段子作业
import requests
from lxml import etree
import threading
from queue import Queue
import csv
class BSSpider(threading.Thread):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
}
def __init__(self,page_queue,joke_queue,*args,**kwargs):
super(BSSpider, self).__init__(*args,**kwargs)
self.base_domain = 'http://www.budejie.com'
self.page_queue = page_queue
self.joke_queue = joke_queue
def run(self):
while True:
if self.page_queue.empty():
break
url = self.page_queue.get()
response = requests.get(url, headers=self.headers)
text = response.text
html = etree.HTML(text)
descs = html.xpath("//div[@class='j-r-list-c-desc']")
for desc in descs:
jokes = desc.xpath(".//text()")
joke = "\n".join(jokes).strip()
link = self.base_domain+desc.xpath(".//a/@href")[0]
self.joke_queue.put((joke,link))
print('='*30+"第%s页下载完成!"%url.split('/')[-1]+"="*30)
class BSWriter(threading.Thread):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}
def __init__(self, joke_queue, writer,gLock, *args, **kwargs):
super(BSWriter, self).__init__(*args, **kwargs)
self.joke_queue = joke_queue
self.writer = writer
self.lock = gLock
def run(self):
while True:
try:
joke_info = self.joke_queue.get(timeout=40)
joke,link = joke_info
self.lock.acquire()
self.writer.writerow((joke,link))
self.lock.release()
print('保存一条')
except:
break
def main():
page_queue = Queue(10)
joke_queue = Queue(500)
gLock = threading.Lock()
fp = open('bsbdj.csv', 'a',newline='', encoding='utf-8')
writer = csv.writer(fp)
writer.writerow(('content', 'link'))
for x in range(1,11):
url = 'http://www.budejie.com/text/%d' % x
page_queue.put(url)
for x in range(5):
t = BSSpider(page_queue,joke_queue)
t.start()
for x in range(5):
t = BSWriter(joke_queue,writer,gLock)
t.start()
if __name__ == '__main__':
main()
|