IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 网络协议 -> 【Python 多线程+ip代理+正则+pyquery】爬取链家二手房信息 -> 正文阅读

[网络协议]【Python 多线程+ip代理+正则+pyquery】爬取链家二手房信息

作者:recommend-item-box type_blog clearfix

现在的lj已经不再公示房屋交易记录,所以只能爬一爬房屋基本信息。

?

用到的模块还是挺多的,一波导入

import requests 
import random
from pyquery import PyQuery as pq 
import re 
import pymysql 
from pymysql.converters import escape_string
import threading 
import time
#自行查找ua
uas = []
ua = random.choice(uas)

#请求头
headers = {
	'User-Agent':ua,
	'Host':'bj.lianjia.com',
	'Referer':'https://bj.lianjia.com/ershoufang/dongcheng/pg2/'
}

#这里放ip 格式ip:port
li = []
proxy = f'账号:密码@{random.choice(li)}'
proxies = {
	'http': 'http://' + proxy,
	'https': 'http://' + proxy,
}

#注意提前创建database和table
conn = pymysql.connect(user='root',password='123123123',host='localhost',port=3306,database='lianjia')
cursor = conn.cursor()

根据首页获取最大页数pagesize。这个过程非常麻烦,包含页码的a节点无法提取出来,最后不得不另辟蹊径用pyquery+re组合提取出来?


# get page size 
def get_pagesize():
	res = requests.get(url=url,headers=headers)
	res.encoding = 'utf8'
	html = res.text
	doc = pq(html)
	pagesize_list = doc('.page-box.house-lst-page-box').attr('page-data')
	str_ps_list = str(pagesize_list)
	#print(pagesize_list)
	ps_pattern = re.compile('"totalPage":(\d+)')
	ps = ps_pattern.search(str_ps_list).group(1)
	#print(ps)
	return ps 

接下来定义解析函数。

【注意】因为在sql语句中没有直接用%加入相应变量,而是在execute中分开(sql,values),所以sql语句中的%s不添加双引号,负责会报错syntax error?

另【注意】lock.acquire的位置千万别放进for li 循环中,否则报错。

def parse_listpage(url):
	time.sleep(0.25)
	try:
		res = requests.get(url=url,headers=headers,proxies=proxies)
	except:
		print('Error')
		res = requests.get(url=url,headers=headers,proxies=proxies)
	semaphore.release()
	res.encoding = 'utf8'
	html = res.text
	doc = pq(html)
	#print(doc)
	sell_list = doc('.sellListContent')
	detail_list = sell_list('.clear.LOGVIEWDATA.LOGCLICKDATA').items()

	lock.acquire()
	for li in detail_list:
		#print(li,'\n')
		title = li('.title').text()

		#position 继续拆分为街道和区域
		position = li('.flood').text()

		street = position.split('-')[0].strip()
		street = escape_string(street)

		region = position.split('-')[1].strip()

		#house info 继续拆分7部分
		house_info = li('.address').text()
		house_info = house_info.split('|')

		layout = house_info[0].strip()

		area = house_info[1].strip()
		area = escape_string(area)

		orientation = house_info[2].strip()
		deco = house_info[3].strip()

		floor = house_info[4].strip()
		floor = escape_string(floor)

		if len(house_info) > 5:
			built_time = house_info[5].strip()
		else:
			built_time = 'None'

		if len(house_info) > 6:
			built_structure = house_info[6].strip()
		else:
			built_structure = 'None'

		tag = li('.tag').text()

		price = li('.totalPrice.totalPrice2').text()

		unit_price = li('.unitPrice').text()
		unit_price = escape_string(unit_price)

		print(title,'--',street,'--',region,'--',layout,
			'--',area,'--',orientation,'--',deco,'--',
			floor,'--',built_time,'--',built_structure,'--',
			tag,'--',price,'--',unit_price)


		sql = "insert into bj_chaoyang(title,street,region,layout,area,orientation,deco,floor,built_time,built_structure,tag,price,unit_price) \
		values(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)" 
		values = (title,street,region,layout,area,orientation,deco,floor,built_time,built_structure,tag,price,unit_price)
		cursor.execute(sql,values)
		conn.commit()

	lock.release()

主函数。

注意pagesize在列表解析中要int一下,因为re提取出来是str

另外rt.join()阻塞线程,免得一个子线程结束了先把conn给关掉了那么后面数据就没法进数据库了。

if __name__ == '__main__':
	url = 'https://bj.lianjia.com/ershoufang/chaoyang/'
	#parse_listpage(url)
	# num of last page 
	pagesize = get_pagesize()
	#print(pagesize)
	urls = [f'https://bj.lianjia.com/ershoufang/chaoyang/pg{i}/' for i in range(2,int(pagesize)+1)]
	print(urls)
	lock = threading.Lock()
	li_rt = []
	semaphore = threading.BoundedSemaphore(5)
	for url in urls:
		print(url,'\n')
		semaphore.acquire()
		t= threading.Thread(target=parse_listpage,args=(url,))
		t.start()
		li_rt.append(t)

	for rt in li_rt:
		rt.join()

	conn.close()

成果展示

  网络协议 最新文章
使用Easyswoole 搭建简单的Websoket服务
常见的数据通信方式有哪些?
Openssl 1024bit RSA算法---公私钥获取和处
HTTPS协议的密钥交换流程
《小白WEB安全入门》03. 漏洞篇
HttpRunner4.x 安装与使用
2021-07-04
手写RPC学习笔记
K8S高可用版本部署
mySQL计算IP地址范围
上一篇文章      下一篇文章      查看所有文章
加:2021-11-14 22:06:46  更:2021-11-14 22:09:11 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年7日历 -2024/7/3 21:09:08-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码