一、xpath解析
????????所谓解析,是帮助我们获取网页源码中部分数据的一种方式。
1.xpath的使用
- 安装xpath插件
- (1)打开chrome浏览器
- (2)点击右上角小圆点
- (3)更多工具
- (4)扩展程序
- (5)拖拽xpath插件到扩展程序中
- (6)如果crx文件失效,需要将后缀修改zip
- (7)再次拖拽
- (8)关闭浏览器重新打开
- (9)ctrl + shift + x
- (10)出现小黑框
- 安装lxml库 ???
- pip install lxml ‐i https://pypi.douban.com/simple
- 导入lxml.etree????
- etree.parse()?? 解析本地文件??
- html_tree = etree.parse('XX.html')
- etree.HTML() 解析服务器响应文件
- html_tree = etree.HTML(response.read().decode('utf‐8')
- html_tree.xpath(xpath路径)
2.xpath基本语法
- 路径查询
- //:查找所有子孙节点,不考虑层级关系
- / :找直接子节点
- 谓词查询
- //div[@id]
- //div[@id="maincontent"]
- 属性查询
- 模糊查询
- //div[contains(@id, "he")]
- //div[starts‐with(@id, "he")]
- 内容查询
- 逻辑运算
- //div[@id="head" and @class="s_down"]
- //title | //pric
???? 3.xpath的使用案例
# (1) 请求对象的定制
# (2)获取网页的源码
# (3)下载
# 需求 下载的前十页的图片
# https://sc.chinaz.com/tupian/qinglvtupian.html 1
# https://sc.chinaz.com/tupian/qinglvtupian_page.html
import urllib.request
from lxml import etree
def create_request(page):
if(page == 1):
url = 'https://sc.chinaz.com/tupian/qinglvtupian.html'
else:
url = 'https://sc.chinaz.com/tupian/qinglvtupian_' + str(page) + '.html'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36',
}
request = urllib.request.Request(url = url, headers = headers)
return request
def get_content(request):
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
return content
def down_load(content):
# 下载图片
# urllib.request.urlretrieve('图片地址','文件的名字')
tree = etree.HTML(content)
name_list = tree.xpath('//div[@id="container"]//a/img/@alt')
# 一般设计图片的网站都会进行懒加载
src_list = tree.xpath('//div[@id="container"]//a/img/@src2')
for i in range(len(name_list)):
name = name_list[i]
src = src_list[i]
print(src)
url = 'https:' + src
url=url.replace('_s', '')
#print(url)
urllib.request.urlretrieve(url=url,filename='./loveImg/' + name + '.jpg')
if __name__ == '__main__':
start_page = int(input('请输入起始页码'))
end_page = int(input('请输入结束页码'))
for page in range(start_page,end_page+1):
# (1) 请求对象的定制
request = create_request(page)
# (2)获取网页的源码
content = get_content(request)
# (3)下载
down_load(content)
# _*_ coding :utf-8 _*_
#@Time :2021/10/20 13:52
#@Author :段一盟
#@File :站长素材图片爬取
#@Project :
#http://www.daimg.com/photo/wedding/list_161_1.html
#http://www.daimg.com/photo/wedding/list_161_2.html
#http://www.daimg.com/photo/wedding/list_161_3.html
#请求对象的定制
#获取网页源码
#下载(得到源码后解析)
import urllib.request
from lxml import etree
def create_request(page):
url = 'http://www.daimg.com/photo/wedding/list_161_' + str(page) + '.html'
headers={
'User-Agent':'Mozilla/5.0(Windows NT 10.0;Win64;x64)AppleWebKit/537.36(KHTML, like Gecko)Chrome/93.0.4577.82Safari/537.36'
}
request=urllib.request.Request(headers=headers,url=url)
return request
def get_content(request):
response=urllib.request.urlopen(request,timeout=10)
content=response.read().decode('gb2312')
return content
#urllib.request.urlretrieve(url,filename)
def down_load(content):
tree = etree.HTML(content)
name_list=tree.xpath('//div[@class="ibox2 all"]//a/img/@alt')
print(len(name_list))
src_list=tree.xpath('//div[@class="ibox2 all"]//a/img/@src')
print(len(src_list))
#src2是因为懒加载
for i in range(len(name_list)):
name=name_list[i]
src=src_list[i]
url=src
# url = url.replace('_s', '')
print(url)
urllib.request.urlretrieve(url=url,filename='./nmg/'+ name+str(i) + '.jpg')
if __name__=='__main__':
start_page=int(input('input start page:'))
end_page=int(input('input end page:'))
for page in range(start_page,end_page+1):
# 请求对象的定制
request=create_request(page)
#获取网页源码
content=get_content(request)
#下载(得到源码后解析)
down_load(content)
二、jsonpath解析
jsonpath适用于解析本地文件,不能用于解析服务器响应文件
1.jsonpath安装
????????pip安装: pip install jsonpath
2.jsonpath使用
- obj=json.load(open('json文件', 'r', encoding='utf‐8'))
- ret = jsonpath.jsonpath(obj, 'jsonpath语法')
三、BeautifulSoup解析
1.基本简介
- BeautifulSoup简称:
- 什么是BeatifulSoup?
- BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据
- 优缺点?
- 缺点:效率没有lxml的效率高
- 优点:接口设计人性化,使用方便
2.安装及创建
- 安装
- 导入
- from bs4 import BeautifulSoup
- 创建对象
- 服务器响应的文件生成对象
- soup = BeautifulSoup(response.read().decode(), 'lxml')
- 本地文件生成对象
- soup = BeautifulSoup(open('1.html'), 'lxml')
- 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
3.bs4基本使用
from bs4 import BeautifulSoup
# 通过解析本地文件 来将bs4的基础语法进行讲解
# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('075_尚硅谷_爬虫_解析_bs4的基本使用.html',encoding='utf-8'),'lxml')
# 根据标签名查找节点
# 找到的是第一个符合条件的数据
# print(soup.a)
# 获取标签的属性和属性值
# print(soup.a.attrs)
# bs4的一些函数
# (1)find
# 返回的是第一个符合条件的数据
# print(soup.find('a'))
# 根据title的值来找到对应的标签对象
# print(soup.find('a',title="a2"))
# 根据class的值来找到对应的标签对象 注意的是class需要添加下划线
# print(soup.find('a',class_="a1"))
# (2)find_all 返回的是一个列表 并且返回了所有的a标签
# print(soup.find_all('a'))
# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
# print(soup.find_all(['a','span']))
# limit的作用是查找前几个数据
# print(soup.find_all('li',limit=2))
# (3)select(推荐)
# select方法返回的是一个列表 并且会返回多个数据
# print(soup.select('a'))
# 可以通过.代表class 我们把这种操作叫做类选择器
# print(soup.select('.a1'))
# print(soup.select('#l1'))
# 属性选择器---通过属性来寻找对应的标签
# 查找到li标签中有id的标签
# print(soup.select('li[id]'))
# 查找到li标签中id为l2的标签
# print(soup.select('li[id="l2"]'))
# 层级选择器
# 后代选择器
# 找到的是div下面的li
# print(soup.select('div li'))
# 子代选择器
# 某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容 但是在bs4中 不会报错 会显示内容
# print(soup.select('div > ul > li'))
# 找到a标签和li标签的所有的对象
# print(soup.select('a,li'))
# 节点信息
# 获取节点内容
# obj = soup.select('#d1')[0]
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
# 我们一般情况下 推荐使用get_text()
# print(obj.string)
# print(obj.get_text())
# 节点的属性
# obj = soup.select('#p1')[0]
# name是标签的名字
# print(obj.name)
# 将属性值左右一个字典返回
# print(obj.attrs)
# 获取节点的属性
obj = soup.select('#p1')[0]
print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])
4.bs4爬取星巴克数据(待完善...)
import urllib.request
url = 'https://www.starbucks.com.cn/menu/'
response = urllib.request.urlopen(url)
content = response.read().decode('utf-8')
from bs4 import BeautifulSoup
soup = BeautifulSoup(content,'lxml')
# //ul[@class="grid padded-3 product"]//strong/text()
name_list = soup.select('ul[class="grid padded-3 product"] strong')
for name in name_list:
print(name.get_text())
|