IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> Python基础之爬取某瓣图书信息 -> 正文阅读

[Python知识库]Python基础之爬取某瓣图书信息

概述

所谓爬虫,就是帮助我们从互联网上获取相关数据并提取有用的信息。在大数据时代,爬虫是数据采集非常重要的一种手段,比人工进行查询,采集数据更加方便,更加快捷。刚开始学爬虫时,一般从静态,结构比较规范的网页入手,然后逐步深入。今天以爬取某瓣最受关注图书为例,简述Python在爬虫方面的初步应用,仅供学习分享使用,如有不足之处,还请指正。

涉及知识点

如果要实现爬虫,需要掌握的Pyhton相关知识点如下所示:

  • requests模块:requests是python实现的最简单易用的HTTP库,建议爬虫使用requests。关于requests模块的相关内容,可参考官方文档及简书上的说明
  • BeautifulSoup模块:Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。关于BeautifulSoup的更多内容,可参考官方文档
  • json模块:JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,易于人阅读和编写。使用 JSON 函数需要导入 json 库。关于json的更多内容,可参考菜鸟笔记
  • re模块:re模块提供了与 Perl 语言类似的正则表达式匹配操作。关于re模块的更多内容,可参考官方文档

目标页面

本例中爬取的信息为某瓣最受关注图书榜信息,共10本当前最受欢迎图书。

爬取页面URL【Uniform Resource Locator,统一资源定位器】:https://book.douban.com/chart?subcat=F

爬取页面截图,如下所示:

爬取数据步骤

1. 分析页面

通过浏览器提供的开发人员工具(快捷键:F12),可以方便的对页面元素进行定位,经过定位分析,本次所要获取的内容,包括在UL【class=chart-dashed-list】标签内容,每一本书,都对应一个LI元素,是本次爬取的目标,如下所示:

?每一本书,对应一个Li【class=media clearfix】元素,书名为对应a【class=fleft】元素,描述为P【class=subject-abstract color-gray】标签元素内容,具体到每一本书的的详细内容,如下所示:

2. 下载数据

如果要分析数据,首先要进行下载,获取要爬取的数据信息,在Python中爬取数据,主要用requests模块,如下所示:

def get_data(url):
    """
    获取数据
    :param url: 请求网址
    :return:返回请求的页面内容
    """
    # 请求头,模拟浏览器,否则请求会返回418
    header = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/70.0.3538.102 Safari/537.36 Edge/18.18363'}
    resp = requests.get(url=url, headers=header)  # 发送请求
    if resp.status_code == 200:
        # 如果返回成功,则返回内容
        return resp.text
    else:
        # 否则,打印错误状态码,并返回空
        print('返回状态码:', resp.status_code)
        return ''

注意:在刚开始写爬虫时,通常会遇到“HTTP Error 418”,请求网站的服务器端会进行检测此次访问是不是人为通过浏览器访问,如果不是,则返回418错误码。检测请求头是常见的反爬虫策略,所为为了模拟浏览器访问,需要构造请求Header,然后即可正常访问。

正常浏览器访问成功的状态码为200,及请求标头中User-Agent。如下所示:

3. 解析数据

当获取到数据后,需要进行数据分析,才能得到想要的内容。requests模块获取到的内容为Html源码字符串,可以通过BeautifulSoup装载成对象,然后进行数据获取,如下所示:

def parse_data(html: str = None):
    """
    解析数据
    :param html:
    :return:返回书籍信息列表
    """
    bs = BeautifulSoup(html, features='html.parser')  # 转换页面内容为BeautifulSoup对象
    ul = bs.find(name='ul', attrs={'class': 'chart-dashed-list'})  # 获取列表的父级内容
    lis = ul.find_all('li', attrs={'class': re.compile('^media clearfix')})  # 获取图书列表
    books = []  # 定义图书列表
    for li in lis:
        # 循环遍历列表
        strong_num = li.find(name='strong', attrs={'class': 'fleft green-num-box'})  # 获取书籍排名标签
        book_num = strong_num.text  # 编号
        h2_a = li.find(name='a', attrs={'class': 'fleft'})  # 获取书名标签
        book_name = h2_a.text  # 获取书名
        p_info = li.find(name='p', attrs={'class': "subject-abstract color-gray"})  # 书籍说明段落标签

        book_info_str = p_info.text.strip()  # 获取书籍说明,并 去前后空格
        # book_info_list = book_info_str.split('/', -1) # 分隔符
        books.append(
            {'book_num': book_num, 'book_name': book_name, 'book_info': book_info_str})  # 将内容添加到列表

    return books

4. 保存数据

解析到目标数据后,需要进行数据持久化,以便后续进一步分析。持久化通常可以保存到数据库中,本例为了简单,保存到本地json文件中,如下所示:

def save_data(res_list):
    """
    保存数据
    :param res_list: 保存的内容文件
    :return:
    """
    with open('books.json', 'w', encoding='utf-8') as f:
        res_list_json = json.dumps(res_list, ensure_ascii=False)
        f.write(res_list_json)

本例完整代码,如下所示:

import json  # json 包,用于读取解析,生成json格式的文件内容
import requests  # 请求包  用于发起网络请求
from bs4 import BeautifulSoup  # 解析页面内容帮助包
import re  # 正则表达式


def get_data(url):
    """
    获取数据
    :param url: 请求网址
    :return:返回请求的页面内容
    """
    # 请求头,模拟浏览器,否则请求会返回418
    header = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/70.0.3538.102 Safari/537.36 Edge/18.18363'}
    resp = requests.get(url=url, headers=header)  # 发送请求
    if resp.status_code == 200:
        # 如果返回成功,则返回内容
        return resp.text
    else:
        # 否则,打印错误状态码,并返回空
        print('返回状态码:', resp.status_code)
        return ''


def parse_data(html: str = None):
    """
    解析数据
    :param html:
    :return:返回书籍信息列表
    """
    bs = BeautifulSoup(html, features='html.parser')  # 转换页面内容为BeautifulSoup对象
    ul = bs.find(name='ul', attrs={'class': 'chart-dashed-list'})  # 获取列表的父级内容
    lis = ul.find_all('li', attrs={'class': re.compile('^media clearfix')})  # 获取图书列表
    books = []  # 定义图书列表
    for li in lis:
        # 循环遍历列表
        strong_num = li.find(name='strong', attrs={'class': 'fleft green-num-box'})  # 获取书籍排名标签
        book_num = strong_num.text  # 编号
        h2_a = li.find(name='a', attrs={'class': 'fleft'})  # 获取书名标签
        book_name = h2_a.text  # 获取书名
        p_info = li.find(name='p', attrs={'class': "subject-abstract color-gray"})  # 书籍说明段落标签

        book_info_str = p_info.text.strip()  # 获取书籍说明,并 去前后空格
        # book_info_list = book_info_str.split('/', -1) # 分隔符
        books.append(
            {'book_num': book_num, 'book_name': book_name, 'book_info': book_info_str})  # 将内容添加到列表

    return books


def save_data(res_list):
    """
    保存数据
    :param res_list: 保存的内容文件
    :return:
    """
    with open('books.json', 'w', encoding='utf-8') as f:
        res_list_json = json.dumps(res_list, ensure_ascii=False)
        f.write(res_list_json)


#  开始执行,调用函数
url = 'https://book.douban.com/chart?subcat=F'
html = get_data(url=url)  # 获取数据
books = parse_data(html)  # 解析数据
save_data(books)  # 保存数据
print('done')

本例爬取内容,保存到books.json文件中,如下所示:

[
  {
    "book_num": "1",
    "book_name": "心灵侦探城塚翡翠",
    "book_info": "相泽沙呼 / 2021-4 / 人民文学出版社 / 79.00元 / 精装"
  },
  {
    "book_num": "2",
    "book_name": "平原上的摩西",
    "book_info": "双雪涛 / 2021-4 / 北京日报出版社 / 59 / 精装"
  },
  {
    "book_num": "3",
    "book_name": "眩晕",
    "book_info": "[德国] 温弗里德·塞巴尔德 / 2021-4 / 广西师范大学出版社 / 52.00元 / 精装"
  },
  {
    "book_num": "4",
    "book_name": "一把刀,千个字",
    "book_info": "王安忆 / 2021-4 / 人民文学出版社 / 精装"
  },
  {
    "book_num": "5",
    "book_name": "字母表谜案",
    "book_info": "大山诚一郎 / 2021-5 / 河南文艺出版社 / 42.00 / 平装"
  },
  {
    "book_num": "6",
    "book_name": "星之继承者",
    "book_info": "[英] 詹姆斯·P.霍根 / 2021-4 / 新星出版社 / 58.00元 / 精装"
  },
  {
    "book_num": "7",
    "book_name": "美丽黑暗",
    "book_info": "[法] 法比安·韦尔曼  编 / [法] 凯拉斯科多  绘 / 2021-4 / 后浪丨中国纺织出版社 / 88.00元 / 精装"
  },
  {
    "book_num": "8",
    "book_name": "心",
    "book_info": "[日] 夏目漱石 / 2021-3-30 / 江苏凤凰文艺出版社 / 45.00元 / 精装"
  },
  {
    "book_num": "9",
    "book_name": "奇迹唱片行",
    "book_info": "[英] 蕾秋·乔伊斯 / 2021-6-11 / 北京联合出版公司 / 48 / 平装"
  },
  {
    "book_num": "10",
    "book_name": "派对恐惧症",
    "book_info": "[美]卡门?玛丽亚?马查多 / 2021-5 / 世纪文景/上海人民出版社 / 59.00元 / 精装"
  }
]

备注

望岳

唐·杜甫

岱宗夫如何?齐鲁青未了。
造化钟神秀,阴阳割昏晓。
荡胸生曾云,决眦入归鸟。( 曾 同:层)
会当凌绝顶,一览众山小。?

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2021-07-29 11:35:59  更:2021-07-29 11:37:04 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 1:33:49-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码