IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> python+scrapy框架之豆瓣电影 -> 正文阅读

[Python知识库]python+scrapy框架之豆瓣电影


学习记录:

一、新建scrapy项目

  • scrapy下载
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --trusted-host pypi.tuna.tsinghua.edu.cn Scrapy
  • 在指定的文件路径下建立项目
scrapy startproject  项目名

如下:
在这里插入图片描述

  • 新建spiders爬虫文件
scrapy genspider 文件名  所爬网页域名

注意:我们在创建文件的时候,要进入到其spiders目录下进行。我之前是直接复制它提示的指令去创建,后面却出现问题了。半天都没解决,其报错如下:
在这里插入图片描述
创建文件:
在这里插入图片描述在pycharm中查看:
在这里插入图片描述
对于scrapy的详解: scrapy文档

二、豆瓣电影实战

豆瓣TOP250是一个练手学习的好地方。。。
整体框架:一个scrapy有很多个文件,我们只需编写我们需要的代码文件即可,其他不动它就可
在这里插入图片描述

  • 网页解析数据
  • douban .py
import scrapy
from scrapy.http import Request
from douban01.items import Douban01Item  # 这个目前还没找到解决办法,只有这样用


class DoubanSpider(scrapy.Spider):
    name = 'douban'
    allowed_domains = ['movie.douban.com']

    # start_urls = ['http://movie.douban.com/']

    # 分页操作
    def start_requests(self):
        for page in range(10):
            yield Request(url=f'https://movie.douban.com/top250?start={page * 25}&filter=')

    # **kwargs 可以消除警告
    def parse(self, response, **kwargs):  # **kwargs消除警告
        li_list = response.xpath('//ol[@class="grid_view"]/li')
        for i in li_list:
            actor = i.xpath('string(./div/div[2]/div[2]/p/text())')[0].extract().strip()
            detail = i.xpath('./div/div[2]/div[2]/p/text()')[1].extract().strip()
            rank = i.xpath('string(./div/div[2]/div[2]/div/span[2]/text())')[0].extract()
            title = i.xpath('./div/div[2]/div/a/span[1]/text()')[0].extract()

            move = Douban01Item(actor=actor, detail=detail, rank=rank, title=title)

            # print(title)

            yield move

scrapy对于多页请求,它专门有个方法:start_requests Scrapy 中的起始请求 通过start_requests 函数实现

    # 分页操作
    def start_requests(self):
        for page in range(10):
            yield Request(url=f'https://movie.douban.com/top250?start={page * 25}&filter=')

爬虫的主要目标是从页面爬取非结构性的数据然后提取出结构性数据。Scrapy提供Item类可以实现这样的要求。Item对象是简单的容器,用于保存爬取到的数据。

items.py
item 类实例化,后面可传递到管道进行数据处理

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class Douban01Item(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    actor = scrapy.Field()
    detail = scrapy.Field()
    rank = scrapy.Field()
    title = scrapy.Field()


settings.py

  • 在 settings.py 中设置启用管道,找到 ITEM_PIPELINES
  • 设置请求头
  • 关掉君子协议,找到它把他注释即可
  • 并发数可以直接设置,默认数值16
BOT_NAME = 'douban01'

SPIDER_MODULES = ['douban01.spiders']
NEWSPIDER_MODULE = 'douban01.spiders'
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36'
ITEM_PIPELINES = {
    'douban01.pipelines.Douban01Pipeline': 300,  # 管道优先级,数字越小越先执行
}

2.1、存储在CSV

pipelines.py
爬取获得的数据通过item 类实例化,然后传递到管道,通过管道进行进一步处理。在这里我们可以设置数据存储方式或位置。
如果要存储数据在CSV或json形式的话,我们可以不用设置管道文件,可以直接给命令达到效果。

  • CSV
  • 终端运行命令:scrapy crawl douban -o 豆瓣.csv
  • 注意是要到其spiders目录下执行
    在这里插入图片描述
  • JSON
  • 终端运行命令:scrapy crawl douban -o 豆瓣.json
  • 直接这样运行最后数据会乱码的
    如图:
    在这里插入图片描述
  • 我们可以指定编码格式, 即在命令后面增加 -s FEED_EXPORT_ENCODING=utf-8 如下
scrapy crawl douban -o 豆瓣.json -s FEED_EXPORT_ENCODING=utf-8

2.2、存储在Excel

其他不变,只是编写pipelines.py即可:

import openpyxl  # 写入 Excel 表中


class Douban01Pipeline:

    def __init__(self):
        self.wb = openpyxl.Workbook()  # 创建工作薄
        self.ws = self.wb.active  # 建表
        self.ws.title = '豆瓣TOP250'
        self.ws.append(("影片名", "评分", "剧情", "演员"))

    def close_spider(self, spider):
        self.wb.save("豆瓣电影数据.xlsx")

    def process_item(self, item, spider):
        actor = item.get('actor')
        detail = item.get('detail')
        rank = item.get('rank')
        title = item.get('title')

        self.ws.append((title, rank, detail, actor))

        return item

效果:Excel中打开
在这里插入图片描述

2.3、存储在数据库—sql server

sql server中建表:

create table douban 
(
id int  identity(1, 1)  not null primary key, --identity(1, 1) 起始值1,自增量1,且设置ID为主键
影片名 varchar(30) not null,   
评分 varchar(10) not null,
剧情 varchar(80) not null,
演员 varchar(100) not null
)

编写pipelines.py

  • 批量写入数据库
import pymssql  # 引入pymssql模块


class Douban03Pipeline:
    def __init__(self):
        self.connect = pymssql.connect(server='LAPTOP-DUHL1TTU\YXHLHM',  # 服务器名或本地IP
                                       user='sa',  # 账户
                                       password='123456',  # 自己设置的密码
                                       database='yxh2')  # 你要连接的数据库名
        self.cursor = self.connect.cursor()
        self.data = []  # 准备一个空列表作为容器

    def close_spider(self, spider):
        # 在最后关闭时,如还有数据则全部写入
        if len(self.data) > 0:
            self.to_sql()

        self.connect.commit()  # 提交数据
        self.connect.close()  # 关闭

    def process_item(self, item, spider):
        # item中取出数据
        actor = item.get("actor")
        detail = item.get("detail")
        rank = item.get("rank")
        title = item.get("title")
        a = (title, rank, detail, actor)
        self.data.append(a)
        # 列表数据达到100条时进行写入
        if len(self.data) == 20:
            self.to_sql()
            self.connect.commit()
            self.data.clear()  # 每写入100条后,就清除列表里的数据,避免重复

        return item

    def to_sql(self):
        sql = "insert into douban(影片名,评分,剧情,演员) values(%s,%s,%s,%s)"
        self.cursor.executemany(sql, self.data)
        self.connect.commit()

数据库中查看:
在这里插入图片描述
学习中~~

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2022-06-18 23:23:49  更:2022-06-18 23:24:06 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 12:19:47-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码