| |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| -> Python知识库 -> 使用scrapy爬取豆瓣top250并导出 -> 正文阅读 |
|
|
[Python知识库]使用scrapy爬取豆瓣top250并导出 |
import scrapy
class DoubanSpider(scrapy.Spider):
name = 'douban'
allowed_domains = ['douban.com']
start_urls = [f'https://movie.douban.com/top250?start=0']
def parse(self, response):
title=response.xpath('//a/span[@class="title"][1]/text()').getall()
start=response.xpath('//span[@class="rating_num"]/text()').getall()
#使用原生的Python写法 写入txt文档
# with open('moive.txt','w',encoding='utf-8') as f:
# for t,s in zip(title,start):
# #print(f'{t}{s}')
# f.write(f'{t},{s}\n')
#
#导出的另一种格式写法
# FEED_EXPORT_ENCODING = 'utf-8' 导出格式json使用
for t,s in zip(title,start):
yield {
'title':t,
'star':s
}
#scrapy crawl douban -o wen.csv 保存csv格式的文件 也就是excel
#scrapy crawl douban -o wen.json 保存json格式的文件
#scrapy crawl douban -o wen.txt 以文本方式保存
#打开设置
#打开pipelines 添加open close
# ITEM_PIPELINES = {
# 'scrapy01.pipelines.Scrapy01Pipeline': 300,
# }
? |
|
|
|
|
| 上一篇文章 下一篇文章 查看所有文章 |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| 360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年11日历 | -2025/11/20 8:56:50- |
|
| 网站联系: qq:121756557 email:121756557@qq.com IT数码 |